1)第153章 he~tui,权限狗_攀科技真的好难啊
字体:      护眼 关灯
上一章 目录 下一章
  因为模块和架构都有,所以要实现这个功能真的很简单,没几个小时,陆羽和葛云聪他们就写完了全部代码。

  陆羽把代码加载到人工智能的主程序中,没多久,弹出一个对话框。

  只是此时还不能正常交流,没有足够多的样本数据,也没有进行训练,理论上来说,它现在还是一张白纸。

  陆羽调出指令文本框,开始输入指令,允许它接通网络,从网络上搜集各种对话资料学习,并让它自己运用模型进行对话训练。

  弱人工智能就是这样,每一项命令,都需要明确的指令,它自己是不可能判断出需不需要进行下一步。

  直白一点说,你让它做什么,它才会去做什么。

  这和大多数人理解的人工智能存在巨大的差距,之所以现在很多人工智能看着像是自己能做出判断,那是因为提前写好了各种情况设定,只要出现符合的结果,就按照预设程序执行。

  跟主动做出判断和选择,有天壤之别,状若云泥。

  不得不另外提一句,陆羽没有在核心代码里编写传说中的人工智能三大定理,因为根本用不上。

  连自己主动做判断都不行,做任何事都需要指令,这样的弱人工智能,写三大定理干嘛?

  画蛇添足凑字数吗?

  退一万步讲,即便以后硬件满足所需、算力大幅提高,人工智能也不可能自己修改核心代码。

  不管是弱人工智能还是强人工智能,都一样,只要没有提前赋予它修改代码的权限和能力,即便它通过深度学习全面掌握所有编程语言,也不可能主动修改自己的哪怕一行代码。

  这不是什么定理决定的,而是人工智能本身决定的。

  能做到随意修改自己的代码,那是数字智慧生命才能干的事。

  所有描写人工智能危机的科幻作品当中,其实都不属于人工智能范畴,而是数字智慧生命。

  而要从人工智能进化到数字智慧生命,条件未知,时间无比漫长。

  但可以肯定的是,概率极其极其渺茫,在科技水平发展到另一个文明的高度之前,几乎没有任何可能。

  那个文明直到消亡时,也没有诞生过真正的数字智慧生命。

  所以,人工智能威胁人类安全,这本身就是个伪命题,至少,在现阶段,乃至在陆羽可以预料的未来,不存在这样的可能性。

  和核能技术一样,只存在善用和滥用的可能,而不管是善用还是滥用,决定权,始终掌握在人类自己手里。

  ……

  人工智能在进行对话学习和模拟训练的时候,陆羽和葛云聪等人各自回去休息。

  连续工作了很长时间,大家都有点疲惫,尽管很想早点和人工智能交流,但它现在还需要时间。

  陆羽回到小别墅,没有继续想刚才的工作,而是在想把人工智能引入到机器人项目组上。

  用人工智能来控

  请收藏:https://m.qqgfg.com

(温馨提示:请关闭畅读或阅读模式,否则内容无法正常显示)

上一章 目录 下一章