谷歌成立人工智能安全伦理委员会
进入文明时代以来,人类就一直担心有朝一日会遭遇“灭顶之灾”,比如说变异的病毒、小行星撞击地球,以及核灾难等。随着机器人技术的不断演进,人类的“噩梦清单”上恐怕又多了一项:人工智能有可能发展出自己的思想,进而引发人类的“身份危机”。
近来发出类似警告的是两位顶尖科学家。一位是理论物理学家斯蒂芬·霍金,他甚至认为,当人工智能发展完全,就是人类的末日;另一位是电动汽车品牌特斯拉的掌门人马斯克,他曾公开表示:“我们要十分小心人工智能,它可能比核武器更危险。”
对人工智能的研究始于上世纪50年代。近几年,科学界和产业界对它的兴趣超越了以往。最近一年半来,谷歌收购了十几家机器人公司,并正在开发人工智能的一个图腾——无人驾驶汽车;去年,社交媒体脸谱成立了新的人工智能实验室……数据显示,2009年以来,人工智能吸引了超过170亿美元的投资,仅去年就有20多亿美元投向拥有类人工智能技术的322家公司。
在并行计算、数字化神经网络、云技术、大数据以及深度学习算法等技术的推动下,人工智能的形态正逐渐显现:它既不是拥有与人类相似意识的机器人,也不是奇点论(人工智能与人脑智慧兼容的时刻)者宣称的超智能,而是应用在狭窄的专业领域,如医学、教育、法律、太空等高度专一的“行家”。随着人工智能的发展,人类终有一天将被其取代的恐慌感也应运而生。美国奇点大学人工智能项目负责人尼尔·杰卡布斯坦早就说过:“要应对即将到来的人工智能革命,我们需要在数学素养、生态素养尤其是道德素养上不断自我提升。”
科学的发展总是出乎我们的预料。在一项技术推广前,审慎的评估和良好的风险控制是必要的,克隆技术、大数据、基因测序无不如此。杰卡布斯坦认为,假设人类成功构建了超级计算机,而它想的跟我们不一样,我们就得加以控制,就像对待孩子一样。走在前沿的人和公司,已经采取了一些行动阻止可能出现的混乱。谷歌在年初收购了以神经系统科学为基础的人工智能公司迪普曼德,随后即成立了“人工智能安全伦理委员会”,以确保技术安全发展。
我们有充分理由乐观看待人工智能研究。为了遥远未来可能发生的危险而遏制技术的发展是愚蠢的。但在过去60年中,随着人工智能每一次成功地“复制”只有人类才有的行为和能力,人类便不得不对人工智能进行重新定义,也不得不重新定义“人类”的含义。人工智能——这个除了人以外最像人的东西,其实是我们心理投射中一个再好不过的客体。在人工智能高度发展的未来,人类或许将面对一场“身份危机”:人类到底是伟大还是渺小,自我存在的意义是什么……这或许将成为人类的困扰。