现阶段的AI发展顶点应该是?

  • X
    Xininye
    就是不会问“为什么”的AI?
    比如,给AI下达一个指令“请帮我倒一杯水”, AI通过之前的学习,认识了杯子,水壶,并知道在哪,知道倒水动作,AI开始通过现场学习行走路径,和时刻检查倒水动作,知道水满等等一些列行为,这个过程既有之前训练的经验和现场接受信息和新的学习过程,这是AI现在能做到最好的事情?

    但AI不会向内问自己“为什么”,为什么要倒水,为什么要听指挥等等,AI自己不会有意识去问为什么, 没得灵魂,

    也许AI永远发展不出会问自己为什么的AI.

    这样的人工智能还是安全的,马斯克有点过于担忧了吧
  • j
    jiaxinyue
    电工表示。。AI能不能先优雅的搞点实际的。。比如layout一张漂亮的 板上SI完美的Pcb
  • l
    logic90
    AI的危险在于,行为不可预测,很难解释

    但是,不可预测并不代表AI有自主意识

    比如,举个例子,高级别的ai自动驾驶,用户不知道ai下一个动作会是怎样,甚至ai的开发者可能也不知道ai在下一个时刻会怎么控制车辆。。。会不会直接撞到逆行的大货车上。。。这就是很危险的HiPDA·NG
  • c
    cattery
    Ai肯定有bug 万一触发神经病了咋办 iOS fly ~
  • 内裤猪
    互联网界现在高速发展,用的做事方式,有一大部分是基于康威定律。





    对于AI设计者来说,设计者不清楚AI有哪些危害,他也不想清楚,他只是将之划归“非常规安全”,在出现错误时,记录下来及时处理,恢复正常服务。

    比如自动驾驶,会不会迎面撞上大货车?不知道。也许会,也许不会,设计者不清楚。如果撞上了怎么办?设计者过来摘取黑盒记录仪,查看日志找出需要处理哪些事件,更新AI内核。下一次也许就可以应对大货车了。

    已经被撞的这辆车怎么办?
    走保险公司流程,赔礼道歉。

    这个过程,冷血的没有一丝人性。

    从这个角度来讲,AI也许以后会比人类更人性化一些。
  • 逛荡
    五竹 iOS fly ~
  • p
    pikachu007
    这就是关键字过滤和语音识别,AI的话,目的就是要区分这些,这个技术上应该早就做到了。
  • x
    xcode
    我觉得楼主说的不叫AI,你这叫机器学习,和汽车电脑板差不多。
  • P
    PDA5566
    AI现在做到也是事后总结的,就好像上面有个兄弟说的 先撞上大货车,然后再改正, 谁愿意做白老鼠。
  • p
    pikachu007
    恩,五竹貌似确实从来不问为什么