竟然有人觉得rts 阿尔法会打不过人类?
- nickelback你高估了RTS的计算难度,昨天DOTA2里面另一个AI公司的自学习AI只用了20个小时学习就打败职业选手了。一开始这个AI只会站在泉水里动都不动,后面学会了买东西,学会了上线,甚至学会了卡兵,假动作骗人,卡视野,全部都是不断试错中学出来的,根本不需要编程。
- yfl2rts没啥难度,因为和围棋不同,基本所有策略都有最优解,而且不像围棋需要两人轮流回合制,单位时间可以下的命令是一个相当大的数,这就更简化计算了,因为等于说连策略的取舍都基本不需要
- karsus估计你根本没看懂我说的啥意思
- psi只要有客观的判定输赢高低的标准,电脑就必定能战胜人类
- u571在我看来,谷歌选择星际2是很有野心的,星际2跟围棋最大不同点在于它是一个战争迷雾游戏,你根本不知道对面在干什么
需要有很高的举一反三和临场应变能力,而这恰恰就是强AI和弱AI之间最大区别,换句话说当AI能在星际2里用人类的操作去打败对手,基本人类能干的事AI都能干了,到了那一天做出终结者这样的AI也毫无问题。
你们还是祈祷这天迟点来吧 - alfredo星际比围棋线性多了,围棋下哪都可以,星际有建筑顺序,造兵时间,每个地图矿总量固定,只要占领更多矿点,电脑不犯错就能取得优势,战损比肯定电脑强,单纯搞个吊打人类的ai我认为不是难事,不过阿法狗团队目的不在于此而已,他们是想搞一个能像人类一样通过目标制定政策规划的ai
- yfl2他说的有难度只是不人为增加估值系统的情况下
而实际上星际里谁怎么做占优势是很好判断的,这不需要所谓的机器学习,简单来说就是星际是一个减枝很方便的游戏
机器只需要判断如何达成这一优势就行了
围棋的难点在于无法简单判断形势
[本帖最后由 yfl2 于 2017-8-13 10:38 编辑] - alfredo战争迷雾对电脑根本不是个事。
星际地图资源总量固定,电脑只要稳守反击,占领更多矿点,在操作不比人类差的情况下,最后肯定是人输。
就跟围棋一样,ai不会选择最快一波打死你的打法,而是会选择保持优势慢慢蚕食,菜鸟也许还觉得能跟电脑打的有来有回,高手才会发现绝望,怎么打都差电脑一招,而且就是那么一点差距导致赢不了 - karsus呵呵,算了吧,像你这种连算法怎么运作的都不知道,还在这里讨论来讨论去,纯凭一脑子YY就很好笑,这帖子里扯淡吹牛逼的连个半瓶水都没有,晃都晃不响。
alpha go不会比deepmind强哪去,都是多层神经网络能有多少差。
我就正经跟你说一点,人类在rts的行为连解构都解不来,度量更没法做,你怎么用算法判断某一时刻发展科技还是进攻还是开分矿能离胜利更近?无法度量的行为,无限的后续分支,根本就不是现阶段的理论和模型能解决的问题。 - u571分析优势这不是问题,就算没有目前的机器学习其他算法一样能做到
关键在于达成优势的实际操作,这需要大量的实际复杂而且快速的操作,远比围棋落个子要难的多,举个例子现在AI连挖矿都做不好,连把飞艇起飞躲避攻击都做不到(最新版本是勉强做到了),现在AI跟人类思维最大的区别就在于人类有常识可以推导其他以前从没操作过的动作,但是Ai不行没人告诉它的话,它就是不会。
DeepMind就是要做到AI知道矿的价值,从而推导出如何更好的挖矿,有人攻击它可以灵活使用规则和物品特性躲避,而这其中没有人为影响。 - alfredo资源有限的情况下你跟我谈无限的后续分支?别搞笑了
能无限种地的帝国时代可能要计算还更难一点
星际这种资源总量固定的,采集效率固定的游戏来谈无限分支,太天真了 - yfl2这只是刻意为之,也就是故意把人类已经知道的计算方法屏蔽了,而实际上谁都知道挖矿的最优化操作
围棋的区别是,人类大可以把所有人类认为的定式加上去,但以前ai还是下不好 - yfl2实际上,进攻和发展科技和开分矿根本不需要选择...
- alfredo真只是要赢人类很容易,阿法狗只要负责价值判断和战略操作即可,微操部分全给脚本
操作对电脑来讲不是事,星际的宏观判断不会比围棋难 - u571可这并不是谷歌想要的啊,脚本也是人做的,说白了AI还是依赖人类才能打赢
这样的东西有啥意义?谷歌想要的是能够自己操作自己理解自己制定战术的AI,这样的东西才具有真正的价值。 - jjx01ai不会做脚本?
- yfl2是啊,所以ai要赢易如反掌
谷歌要做的又不是赢,而是故意增加难度罢了 - karsus所以说,你什么都搞不懂,你以为的东西跟算法根本两码事
- karsus有闲扯淡瞎想的功夫不如去补充点知识
- yfl2你补充点常识吧...
进攻和升科技有啥需要取舍的?
知乎那文说的只是谷歌在刻意不给ai任何现成定式的情况下(说白了就是能减枝故意不减)ai不行,问题是规则都是现成的,如果谷歌想ai赢把这些100%确定的常用定式加入就行了
谷歌追求的又不是ai赢,而是加大赢的难度来测试现有算法的极限罢了
连这两个目的的区别都看不出,你确定自己真能看懂别人说什么么...
[本帖最后由 yfl2 于 2017-8-13 11:48 编辑] - iso900nan你要先搞明白,阿尔法狗这类ai和疯狂电脑这类脚本的区别。
阿尔法狗要做的是,自己搞清楚各个单位、科技、资源在时间轴上能带来多少收益,都有什么用处(本质还是兑换收益),如何操作收益最大。
而疯狂的电脑是人类设置好的脚本进行,例如:如果农民数少于15,则继续造农民。如果主基地挨打,且基地数少于2,则回防。 电脑根本不知道为什么要这么做,只是根据设定的条件和优先级执行脚本。
由于目前ai还没有搞清楚该游戏基本规则(注意,这不是脚本,不是你输入命令和条件告诉他该怎么触发脚本),所以apm优势优势微操优势根本发挥不出来。 这就好比3岁的姚明和人单挑篮球,会被任何一个知道篮球规则的健康成年人完虐 - 喜剧之王我都不知道你们不说操作还讨论什么。rts又不是围棋。不会误操作。即使是人 操作也能直接决定一个人的实力。那么电脑你给他怎么设定这个操作能力呢?还有。电脑会不会误操作。这个只要是人就会有。理论上电脑不会误操作的。但是你硬是设定它会误操作。那么这有何意义呢。
- 野生的任豚光操作点兵无失误,最优线路的时间差把握就能吊打人类了,如果没有战略bug的话。
- zero3rd对于业内来说AI能不能赢人不是考虑的重点,因为赢对于他们来说是很容易的,但是没有任何的实际价值,重点在于AI自己在一个暂定未知的环境下围绕一个目的形成一个价值评估,游戏作为实际世界的一个简化样本相对来说是比较容易确定的,目前的难点也在于此。
而对RTS优越感人群来说,当前AI能不能赢才是关键,对于这批人只需要微笑就行了,很快会有民间爱好者去打脸的。 - 春日野妹你说训练样本穷举,那你是什么意思?把古往今来的所有人类棋谱都让alphago过一遍?然而alphago用的根本就不是这样的算法,深度学习就是让alphago自己每天和自己对弈上万局然后找出棋局上他认为的势的最优解,而不是每一步的最优解。所以你研究alphago的棋谱你会发现他势厚,然而会有一些明显的臭手,从你说训练样本可穷举我就明白了,你既不懂围棋也不懂deepmind,当然你有一点可能说对了,围棋确实规则简单,所以在编程上会比rts这类规则复杂游戏更加容易,然而我还是不认为rts对于ai来说有多么难,毕竟人类顶尖职业选手在rts的全局处理上也远远说不上完美。
本帖最后由 春日野妹 于 2017-8-13 16:01 通过手机版编辑 - karsus连算法怎么运作都搞不清楚还叫唤“常识”,文章都看不懂自己随意胡编,可笑
- karsus没有训练样本有啥可学习的,连参数都卷积不出来,别嚷嚷丢脸了
- sonicae86这么捧RTS,看来确实是个年轻人,从C&C玩起或者了解过围棋的都知道RTS比围棋简单多了,RTS如果想要赢人类对于AI也不难,难的是如何自主学习和适应各种复杂的规则。
战争迷雾对于人来说是死的,因为每个地图大家都打过无数次,所以看到地图种族大家都知道对面应该有几种打发,有几个地方可能是基地。
但是这次设计的AI明显是要让它在每一张新地图上自主探索自主分析路上遇见的各种问题,越说越感觉像以后星际探索需要的AI了 - skycn111首先要确定先决条件,就是APM和反应速度要有一定的限制,不然没得玩。
在这个基础上,我还是看好深度学习的AI能赢过人类,但可能还需要一定学习的时间,明年dota2 5v5是个看点。 - 一只纯猪头2333333
围棋可以穷举
恩你说的是没错,可你知道围棋穷举的话...整个地球资源都不够..不,目前已知宇宙原子数都比穷举的可能性少 - nickelbackAI真的恐怖,DOTA规则无非正反补,视野什么的,AI自学习20个小时从原地不动到居然连卡兵这种规则之外的野路子都自己试出来了,估计拉野、屯野也随便学会,关键AI没有废操作
- 万物apm限制多少算公平?限制到10以内公平不,限制到每秒操作四百条狗两次公平不,没办法谈公平。
- 春日野妹现在又绝口不提自己说的训练样本穷举了?233,脸皮比城墙还厚。我在问你一句,你懂围棋吗?虽然你肯定不懂就是了~
- pascal0115是基于穷举的算法,这点没毛病
rts靠深度学习,反正我是不看好,先花一年时间学学基本操作吧
至于楼上那个什么资源计算的,说你半瓶水算很好了,我看你连瓶子都没 - karsus呵呵,所有的棋类游戏,都是人类发明的规则,到现在为止,所有的获胜规则基本都吃透了,现在基本没有什么新的残局棋谱就说明了这个问题。训练样本取得是经典的代表性对象,不是穷举所有可能,穷举训练样本和穷举棋路是两码事。
所以不懂算法就别BB了,纯丢人现眼。跟你说这么多我也是闲着蛋疼。