现在游戏中的怪物有真正的视觉么?
- icicle31415按照我的理解,游戏设计中怪物看到玩家有两种设计,一种是不管怎么样,只要距离到了,就算看到了.另一种,稍微讲道理,需要玩家出现在怪物的摄像机视野,同时与摄像机之间没有遮挡。我想知道的是,业内有怪物设计是利用摄像机捕捉图像后进行人体检测还索敌的么,这样的设计更贴近现实中的眼,所以我称之为"真正的视觉"。
- lxzworry要判断玩家射线和怪物视椎体的相交
- lxzworry这个跟fps真实ai掩体感觉是一回事 fps ai有会自动找掩体的吗
- 爱护动物抓根宝你的意思是用摄像机捕捉到的图像进行检测?理论上是可以,计算机视觉不就做这个的嘛,
但放游戏里说实话我真不觉得能比直接检测锥体相交先进到哪去,饶了程序员吧。 - njjwl2005这不是闲的蛋疼吗,现在的技术玩家并不能准确知道躲在掩体后面实际到底有没有露个角啥的,体验不会好吧
我看也就专业研究星际ai的那种,为了尽可能模拟实际对战不占人类便宜,可能会用到捕捉屏幕加图像识别 - Lunamos把场景光栅化到怪物的眼睛里再用CV的方式去理解图像么?
现在肯定没有这么做的,因为游戏一秒钟要跑六十帧,怪物数量也多,性能上不允许。
但我觉得这个想法很好,简化一下做一个基于视觉的怪物AI试试可能挺有趣的。 - ybfelix大部分游戏出于各种原因,环境场景尺寸相对人物的比例,比起现实几乎都会小得多,这种情况下即使不考虑游戏可控性问题,往拟真了做出来的敌人视觉也难免会显得小龙虾
- icicle31415性能上是没问题的,因为跑识别人的神经网络一秒120帧靠上没什么问题。当然,这样的设计最好只留给boss,一般的怪还是要符合常规为好。
- icicle31415刚才投一家游戏公司的简历,让瞎掰一下机器视觉在游戏中可能的应用,就想到了这个设计,感觉还是很带感的
- icicle31415不一定只是看得见看不见啊 还可以有敌友逻辑,伪装,烟雾,夜晚环境,迷彩色,识别对抗这些要素 比如玩家的装备色彩特效等会影响boss识别到你的可能性,甚至影响到对你的仇恨之类的
- icicle31415这个倒是超出我了解的范畴了
- cwlqxs结果上来说你说的和第二种有啥区别
- hugosol如果有这种技术可以应用到无人驾驶上了,还做什么游戏
- pgain2004游戏很多时候需要有简化、明确的规则,就像5楼说的,将来顶多再加个镜子反射和影子的识别(潜行)玩家就很舒爽了,而不注重潜行的作品相关规则更是越简单易懂越好
你说的“敌友逻辑,伪装,烟雾,夜晚环境,迷彩色”都可以用参数替代实现,那么资源优化仍是重中之重的当下制作组没太多理由将需求复杂化
当然以后VR+高拟真类作品在技术条件允许下可以这么搞,或者你先搞个原型,个人很支持啊 - wwdzcjsmxx我觉得Halo里面AI挺高的啊,看到士官长还会说哈哈我看到你了。。。不知道算不算
- Znesmoc游戏要占用的资源就那些,AI预算全给你整这个视觉识别上?TD会杀了你的
- lyt77777MGS3就有做迷彩这些啊…………
但是我反正是觉得很蠢,来回切换迷彩是MGS3里非常不好的体验之一。因为游戏里的场景切换远比现实频繁。 - ybfelix额不是什么专业说法啊,就游戏考虑到屏幕尺寸和可玩性,为了让玩起来时不是镜头拉远到人物只有几个像素点,人物的大小比例比现实要夸大的。比如说一把霰弹枪设定射程50米,实际上在游戏中可能只能射出5个游戏人物身长的距离。或者RPG里的一栋独栋家居,在地图上只有3X3个游戏人物身长的占地面积
.
如果给敌人赋予现实视力,这时候是要以环境尺寸作为图像识别的距离基准呢,还是以人物模型大小。以前者的话,大概根本无法潜行,那么大一个巨人,隔着十个屏幕都看见了;以模型身长的话,在这种比例尺下显示效果又显得滑稽:距敌人“定义中的”30米在草里趴着,敌人按算法是看不见我的,但显示出来是敌人看不见仅仅3个身长之外,就趴在眼皮底下的人 - 山竹罐头上古卷轴5里面把桶扣在村民脑袋上,就可以光明正大地把屋里东西都拿走。
- hshiki同意楼上,如果能做好,与其用在游戏里不如造福现实应用
- icicle31415游戏里是不需要考虑精确度的,同样百分之八十的准确度,对游戏来说是合理的困难降低,对于现实就可能是车毁人亡
- hshiki不一定是自动驾驶这种失误就出人命的,比如辅助监督超市偷东西?
- icicle31415这早就在用了啊 要讨论的是应用到游戏里的可能嘛
- Aeroblast为什么会歪到CV上……
从怪物视角光栅化的结果不需要是实际图像,给AI看又不是给人看,标注好玩家和环境遮挡物不就能简单区分有没有看到人了吗,算个玩家在视野里的面积就行了
要是想更复杂一点,标注玩家的头身肢,一串if else就能实现很多设计了啊
补充一句:据我所知,用机器学习识别实际图像,出来的图,是把每个像素分类的结果,上色看的话就和游戏里没贴图差不多的样子。 - whzfjk游戏程序能掌握全局信息,不用白不用啊
- hshiki我觉得没必要,游戏内的所有信息都是明确的数据,再复杂的视觉效果,直接读数据处理不就得了吗?
现实中捕捉的图像需要扫描处理,是因为无法直接识别吧 - C.W.Nimitz我不知道游戏里这么做识别LZ是想达到什么效果。
提个不相关的。
《异形:隔离》的单个异形有两套AI,第一套是行为,引导异形执行搜索、攻击或者查看死角。第二套是指引AI。指引AI一直知道主角(玩家)和异形的位置,但向行为系统发布相对模糊的位置命令,营造一种异形大概知道玩家在哪,但不知道具体位置所以在踱来踱去的效果。 - ppp爱好者常用ai做法是全局知晓,然后调参模拟我不知道你在哪,exp:lol的ai不知道你藏草丛
楼主想说的如果是非要用视觉信息转化是没有的,因为ai确实本身并不存在一个图像感知和接收系统。
但是如果说模拟视觉,至少在射击类里是比较成熟的了,例如全境封锁2,每一个角色有自己的视锥和听觉范围,可以依靠视锥获得的敌人信息进行行动,也可以通过视锥获得的信息进行躲掩体等行为。
阿育是自家写的,ue4也有原生的这个功能,叫eqs,但是一直被标注为实验性功能,实际听说其实蛮好用的。
但是这个东西确实是比较耗的,当然是相对于手机游戏而言,对于pc游戏还是比较常见的了。
感兴趣的话可以看下ue4的eqs的文档。
https://docs.unrealengine.com/en-US/BlueprintAPI/EQS/index.html - hshiki反过来想,如果现实能像游戏内一样读数据,早就实现无人驾驶了,图像识别的主要目的是看得越清越好而不是像人的视觉吧,专业领域不清楚
- beater某种意义上,如果真的实现了这种索敌模式,是不是对玩家太不友好了?
物理上的小龙虾就不存在了? - mimighost我觉得这个对于玩家的体验可能没有太多的改善
- mimighost传统的方法肯定更稳定一些,而且没有这么耗资源。
你说的这个方法还有个比较致命的问题,那就是敌我识别。总的来说这个有点儿脱了裤子放屁的感觉,多此一举 - acropolis算了 ,搞独立的游戏的脑子一热什么都敢塞
-------------------------------------------------------
我收回,程序员不会提这种给自己找麻烦的需求
----------------------------------------------
这就是游戏设计为什么不能让程序员来 - Bojenkins视觉只是信息的一种,可能把敌人接收信息的能力限制在接近视觉器官的水平上就差不多了吧,也就几个参数的事
- 椎名 まゆり性能上问题应该不大的.渲染好的画面,喂给玩家和喂给ai能差多少.
既然是模拟人的视觉,那可不是一帧之内就要算完的.
活人能在1/60秒内判断清楚自己视野里的情况么?也需要反应时间的.几百毫秒是要的.
ai早就训练好了,跑一下是很快的.
如果ai能随着玩家进行游戏重新训练,那就牛逼了.比如直接识破玩家的迷彩. - hshiki为什么不直接告诉ai这是迷彩?都是游戏中的数据
- melting和第二种的不同是玩家露一部分出掩体敌人有可能看不出来吗…
https://b23.tv/aPsZsG这里讲了潜行游戏里敌人视觉的实现方式 - Lunamos显然怪物的眼睛和玩家的屏幕看到的东西不一样,需要重新render(相当于shadow map),而infer要用到已经满负荷的GPU,需要额外硬件单元支持(相当于DLSS)。一个怪保守估计就是加了一层shadow map(render)+DLSS(infer)的计算量。
- mcq_2没意义。搞这些东西之前先把典型游戏类型的基本规则搞清楚先,看看都是怎么实现识别的,然后再过脑子再想想
- MonicaRuan你后面说的模拟视觉获得的信息不能转化成有用的参数贡献到全局策略AI吗(比如influence map)? 还是说实际价值不大(加入不加入对实现影响不大)?我不懂技术,只是觉得你既然后面说视觉信息很有用,但是第二句话又对它在宏观信息贡献度为0(?)的说法到感到困惑
- 原来如此除非构思出一套相关玩法,否则这么折腾对游戏没意义。把全局信息剪裁采样再识别这一整个过程都有确定的数学关系,玩点何在?还不如改进现在这种易实现易理解、加点随机和混淆的ai警惕值方式。
-- 来自 有消息提醒的 Stage1官方 Android客户端 - MonicaRuan在不考虑我是否能看懂的情况下,可以稍微展开讲一下破折号后的三个分句吗?比如举一个具体的例子,或者你想到的什么模型(提供一下术语)
- 哈罗有那么复杂?mgs1里小地图不是给了小兵的可视化视野吗
- ClamtheElder其实是个想法吧。
现在的潜行游戏应该是多个视锥模拟视觉,遮蔽可能是计算视点与模型顶点的连线。
在模拟看到部分时用图像识别算法处理二维图像确实更真实,玩家难以学习这种潜行也不一定是缺点。 - ppp爱好者就我所知可以贡献到全局。只是就楼主讨论的这套,一般是用在单个ai的感知上,ai之间互相传信息肯定没问题。
其实视觉信息或者说主动感知这套没想象的那么有用。
首先ai策略本身受制于游戏数值,策略并不会突破数值本身,所以数值差过大(敌人过强),都会出现ai策略失去意义。
其次和本身游戏类型也密切相关,节奏越快,与敌人交互越简单,其实和传统调参那一套区别越小,所以潜行类才常用这套。
上面40L的GMTK的视频讲的很透彻了,可以看一下。 - 不可不信邪我就说一个问题,如果在黑夜中人肉眼看不清楚,但戴着夜视仪,智商正常的人会选择使用肉眼还是夜视仪索敌?
游戏AI同理,我掌握了游戏的全局数据(比如说什么位置有光源,光强是多大,地形和遮挡物形状大小位置,人物的视锥体等等),用这些数据完全就可以很好的模拟出敌人“看”的效果,何必专门去渲染一个摄像机再做图像分析?
做游戏不是搞物理模拟器,善用各种手段“骗”玩家(特别是游戏图像上)才是业界通识 - Lunamos如果要建模更复杂的NPC行为或许能用得上。举个比较极端的例子,场景中有大量NPC互相玩吃鸡,而且还有大量影响NPC行为的环境物品。想给每个NPC比较真实的AI去根据环境来判断作为,那么需要给每一个NPC的精确包围盒用raycast计算遮蔽。而当可能会影响判断的动态物体到了一个临界点之后,其判断的复杂度可能会高于给每个NPC渲染一个场景的low-res(或者说imperfect) shadowmap之后通过这个二维图像塞进CNN进行语义判断的复杂度。(当然前者也可以有近似方法降低复杂度,比如KNN)
这个算力角度的考虑过于极端了。人们可能只是设计基于视觉的模糊NPC模型for fun而已,会多出一些真实随机感。何况从游戏设计角度说,做一个好玩的NPC脚本,比做一个好玩的NPC模型简单。现在的潜行游戏里敌人眼里只有玩家,几个raycast就能解决视觉问题,敌人只需要根据玩家行为判断自己的行为,给玩家最直接的反馈。只是以后或许会有追求更全面和模糊的NPC行为的时候,也可能会有前面考虑的算力临界问题,但感觉都不是下两个世代会考虑的问题。