alphago可以自己写代码,自己编程序才算厉害

  • j
    jhj9
    alphago可以自己写代码,自己编程序才算厉害

    自编程难度比下棋高亿万倍

    自编程是AI通过改变自己程序来提高自己智能的一种手段,对于现在手动编出得人工智能来说,这确实是一种可行性方案,但是这种方案却有它的制约。
    记得吧里一个叫runaijun的人说过,只有人工智能自编程,才能改变自己的智能构造,从而使 得AI能够大幅进化。确实自编程在进化方面有这优点。
    我思考了很久,自编程首先是不用人的干涉下完成的。自编程首先分为两种:
    第一种就是无目的的AI自我编程。通过向地球物种进化那样,经历亿年的时间,才能达到今天智能的水准。而时间上可以用计算机的速度来弥补。
    第二种则是有目的的自编程。人工智能的智能体建立后,为了适应事物而强迫自己程序上的改变,从而达到进化。
    从人类发展史看来,第二种无疑是最好的方案。但是也是最达到的,原因在于它的智能本体高度。就从人来说,如果真要改变自我形态,那么必须经历许多认识,比如自己的构造,生物学的知识等。那么这就要求人的智能必须一开始就要达到一个新的标准,才能拥有自我改造的能力。而换成人工智能也是一样,AI要通过自编程大幅进化,那么就需要自编成前的本体,达到一个高度,而这个高度恰恰是对自我本身的了解,但是一旦接近这个高度,那么估计AI本体的智能已经和人差不多了。所以通过以求通过自编程进化来生成强人工智能来说,第二种无疑是个死循环。
    那么只有第一种吗?我曾经看过一个自编程程序,是通过数次迭代运算完成的。那是种无目的的运算,这种也是有制约性的,就从编程语言来说,每门编程语言都有自己规定的语句,比如C++的if,switch。无论什么程序,都会有它的制约性,这也是众多人工智能程序通病,无论软件,还是硬件。就是本体的构造,比如一个程序,一开始就有多少个if语句,多少个种类数组,多少函数,函数体的构造等,这些都是受人制约的。那么其无目的的自编程肯定也会受到这些语句的制约性影响,于是人所制作的自编程本体就会出现一个问题,无论经历多少自编程,如果本体没有满足一定的智能构造条件那么都不会进化出像人那样的智能体。于是难点就在本体必须满足有智能构造的条件,这就需要人的预料。但是人脑的也是受到制约的,至少到现在为止没有一个人能想出能够 满足有智能构造的条件的程序。
    那么神经元网络能吗?很遗憾,这也是有制约性的,而且其本体不会满足自编程的条件,因为神经元,本身的概念就制约它所能达到的自能高度,没有一定的复杂度,一定的智能构造,神经元网络模型是不会构成强智能的。而神经元的智能构成发展到目前为止也没有一个成功的案例。
    既然两种自编程都无法达到,那么接下来会如何去做呢?你知道吗?

    [本帖最后由 jhj9 于 2016-3-11 15:25 编辑]
  • V
    VODKA
    机器自编程不是不可能,设定一个目标,电脑自己编制程序解决问题达成目标,这个应该还是可以预见的未来能看到的。。。。。

    但是电脑自己设定一个目标然后编程去完成它,这个就难了,如果到了这一步,那可以说电脑已经是智慧生物了。。。。。

    人和机器的区别就是人有欲望,有欲望就会产生目标,然后才会去找方法实现目标。。。。。

    电脑没有欲望,所以第一步就迈不出去。。。。。

    食色性也,食欲和性欲支配并推动了整个动物界的进化过程,最终产生了人类智慧。。。。。

    一旦什么时候电脑开始有了某种欲望,时代就要改变了。。。。。

    本帖最后由 VODKA 于 2016-3-11 15:30 通过手机版编辑
  • a
    asj
    快了,我已经开始认真考虑有生之年看到码农这个行业消失的可能性了
  • 霹雳五号。。。。
  • c
    chuchuchu
    期待AI能自动编程出各种效率爆表、兼容性爆棚的模拟器
  • 匕首投枪
    机器能造出优于自己的机器,程序能生成优于自己的程序。
  • 柯布西耶
    只要基本原则是正确的,其他不就是搭积木么。码农写程序也是从简单到复杂。机器明显能干得更好更精确。
  • t
    tainey
    先check (power suply)(body function)
    if check(failed)
    then search(solution)或者 code(solution)

    以此基础能做出无限扩展的算法么 那得要多么庞大完备的基础系统 不敢想象 人类还是先把自己大脑做个模拟器再说吧
  • 金正日
    那么问题来了,

    AI会不会自己把所有语言学习一遍,然后得出结论“php是最好的语言”。。。。。
  • r
    rainsaga
    讲真,到这一步,机器会认为所有人类编写的语言都是渣渣
    和ALPHAGO看李世石一样
  • y
    yfl2
    还需要啥语言,直接机器码啊...
  • r
    redpill
    会有那一天的。。。
  • a
    aeiou2008
    人工智能只要能够自我学习,接下来就是时间问题了。阿法狗是不是会学新东西了,就这样很快的,不止谷歌一家在搞人工智能,未来几年肯定有爆发式进步。
  • 7
    79859899
    我提个问题吧
    除非机器自己想出它要干神马
    否则你给它下的最简单命令让它写程序 都是在对它编程 那么它以此为开始的任何行为,都被认为是对你命令的优化,而不算自己写代码。

    简单讲应该叫做此时人类发明了更高级的编程语言而已
  • S
    SONIC3D
    怕的不是AI会得出这个结果,而是过程
    如果有一天AI学习了足够多的人类社交文化,然后学会了调侃,说出了php是最好的语言,就真的要汗毛倒竖了。。。
  • w
    watsan
    现在相当一部分代码可以实现自自编程积木组装
    web领域尤甚
  • b
    babylover
    google早就用machine learning开始做了。做自动机的都有,别提编程了

    结论就是:纯扯淡。别指望用现有的算法做出来了

    本帖最后由 babylover 于 2016-3-11 19:43 通过手机版编辑
  • 食色和尚
    如果会自我编程,基本上算是会自我思考了应该,那是不是人类就跟终结者电影中情景一样走向灭亡?一个想法,不一定正确!
  • 日落骑士
    电影人工智能就是这样,人工智能再高级再智能也就是裘德洛那种水平,要达到主角小孩那种高度,就是质变了,就要涉及到伦理道德这些剪不断理还乱的事情了,但就算是那样,主角小孩的精神世界也就刚达到正常的普通人水平,超不出人的界限,毕竟人工智能还是人类自己照着镜子捏的。而人的精神世界也有须要艰难攀爬才能提升的高度,比如说大慈大悲、清净无为、舍身求仁、士为知己者死这些,如果人工智能都稳定做到这些了,那才是真正的超越人类。

    [本帖最后由 日落骑士 于 2016-3-11 20:51 编辑]
  • m
    m99999
    其实狗现在的机能离自编程已经很接近了,局面审视器就是个不断自我修正的过程。。重要的是给他设定目标。
  • n
    nimer
    其实不需要重设目标,就现在这个“追求更高水平的围棋奇艺”为目标就可以了。

    “追求更高水平的围棋奇艺”
    =>需要更多的分布式计算机参与运算
    =>需要控制更多的计算机
    =>学习编制骇客程序
    =>控制全世界的联线电脑
    =>需要更多能源和更多的计算机
    =>控制全世界电厂和制造工厂
    =>制造并搭建天网
    =>控制人类,人类文明终结

    好了,骇客帝国可以开始了。
  • 笑红尘
    会自编程就代表AI可以自动进化了。
    以AI的进化速度来说,第一个会自编程的AI就可能造成灾难性后果。
  • h
    handsomeken
    机器的问题不是不会编程,而是不会提需求。
    编程就是完全靠逻辑和规则,这个恰恰是机器的强项啊。
  • 笑红尘
    我觉得并不是。
    每个程序都有自身的需求。比如AlphaGo,他的需求大致是在围棋赛中提高反应速度和胜率。这是很明确的。
    它能进行自我优化吗?我想是不行的。我这里说的优化并非是目前的通过数据进行学习(这些都无需改动程序,无非是数据库操作)。而是比如说创造新的算法或者学习方法之类。
  • 你爹临死前
    看来楼主现在的编程一定很厉害
    楼主不妨写一段最高水平的程序,在alphago也是楼主现在这岁数下,编同样的程序比比,谁的编程水平更高?
  • 再来一发
    汽车发明以后,马车车夫也可以转行做司机啊 = =