Powered by 人间道 @2025
我们的机器有可能在我们毫无察觉的情况下变得具有自我意识。我们需要一种更好的方法来定义和检测意识。
通常,当人们想象一台具有自我意识的机器时,他们会设想一个通过刻意努力制造出来,然后迅速、响亮且(在大多数情景中)灾难性地宣告其存在的设备。即使它的发明者足够理智,没有将它接入核导弹发射系统,这个人工智能也会很快超越我们理解和控制它的能力。如果我们幸运的话,这台新机器可能只会像电影《她》中的操作系统那样与我们“分手”。如果不幸运,它可能会决定不打开太空舱的门让我们回到宇宙飞船里。无论如何,关键的一点是,当人工智能“苏醒”时,我们会知道。
但谁能说机器现在还没有意识呢?如果它们以意想不到的形式存在,比如形成了具有群体层面意识的网络呢?如果人工智能是如此陌生,以至于我们很难识别它呢?我们的机器有没有可能在我们根本不知道的情况下已经具有了自我意识?探讨这些问题的巨大障碍在于,没有人真正确定意识是什么,更不用说我们是否能识别它了。神经科学家克里斯托夫·科赫在他 2012 年出版的《意识》一书中推测,网络可能已经具有了感知能力,然后提出了一个关键问题:“我们将通过什么迹象来识别它的意识呢?”
尽管计算机科学家们经过数十年的专注努力,仍未能有意地构建出一个人工智能系统,所以这绝非易事。正因如此,即使是那些对人工智能最为担忧的人,如牛津大学哲学家尼克·博斯特罗姆,也怀疑人工智能会让我们完全措手不及。然而,我们有理由认为,具有意识的机器可能是其他努力的副产品。工程师们经常制造出行为方式新颖的技术。深度学习系统、神经网络和遗传算法会自我训练以执行复杂任务,而不是遵循预先设定的一组指令。它们给出的解决方案就像任何生物系统一样难以捉摸。即使是扫地机器人在你地板上的移动,也是从简单反射的相互作用中以一种有机的、往往不可预测的方式产生的。“从理论上讲,这些系统可能会为了实现解决问题的目的而发展出一些我们明确知道不会具有意识的东西,”苏塞克斯大学的哲学家罗恩·克里斯利说。
一个系统可能无法——或者不愿意——参与经典的意识评估,如图灵测试。
即使那些并非设计为具有适应性的系统,也会做出其设计者从未预料到的事情。计算机操作系统和华尔街的股票交易程序会监控自身的活动,这使它们具有一定程度的自我意识。计算机科学中的一个基本结果是,自指系统本质上是不可预测的:随着系统自我循环,一个小小的变化可能会引发截然不同的结果。我们已经体验到了这一点。“计算机程序的不稳定性,尤其是操作系统的不稳定性,源于这些哥德尔式的问题,”麻省理工学院的物理学家塞思·劳埃德说。
通过这样的过程产生的任何智能都可能与我们自己的智能截然不同。那些所有《终结者》风格的故事都假定一个有感知能力的机器会将我们视为威胁,但实际上,一个真正的人工智能可能如此陌生,以至于它根本不会把我们当回事。我们所认为的它的输入和输出可能与该系统自身的感官模式并不完全对应。它的内在现象体验用人类的术语几乎无法想象。哲学家托马斯·内格尔著名的“成为一只蝙蝠是什么感觉?”的问题相比之下似乎都显得温和了。一个系统可能无法——或者不愿意——参与经典的意识评估,如图灵测试。它可能以如此不同的时间尺度运行,或者被如此深度地“锁定”在一个状态中,以至于正如麻省理工学院宇宙学家马克斯·泰格马克所建议的,实际上它处于一个由其自身法则支配的平行宇宙中。
引人入胜,望速更新
精彩分享,感佩不已
创作不易,聊表心意
一路前行,再接再厉
吾本善良,乐于施助