文/李玮
(作者李玮,“荔枝新闻”特约评论人,IT评论员;本文系作者为“荔枝网”及旗下“荔枝新闻”手机客户端独家供稿,转载请注明出处。)
3月10日,在与谷歌人工智能系统AlphaGo五番棋对战的第二盘中,韩国围棋第一人李世石再次告负,至此,李世石已连输两局。过去数十年,围棋以其计算复杂度被视为人工智能的“苦手”。因此,击败顶尖围棋选手标志着人工智能的重大突破。
在AlphaGo取胜后,除了赞叹和惊讶外,一种普遍观点是,AlphaGo基于计算机算法,而算法归根结底来自人类工程师。因此,AlphaGo的胜利仍是人类专家的胜利。然而,如果深入了解AlphaGo的技术,我们却会得出不一样的结论。
在1997年IBM超级计算机“深蓝”击败国际象棋大师卡斯帕罗夫的比赛中,计算机采用的是“暴力运算”方法,即根据预设置的专家系统计算所有可能性并选出最优策略。换句话说,“深蓝”所做的只是死板的计算,它的唯一优势在于计算能力强大,而不会像人类一样“思考”。但AlphaGo与此不同。围棋的棋型变化超过宇宙中的原子总数,因此穷举所有可能性并不现实。为此,谷歌的团队将蒙特卡洛树搜索、深度学习和强化学习等人工智能方法结合在一起,开发出了AlphaGo。
AlphaGo最引人关注之处在于“深度神经网络”。深度神经网络模拟了人脑的神经元网络。在输入大量数据作为学习素材后,深度神经网络能自行从中发现规律和模式,形成类似人脑的“直觉”,并做出自主决策。用谷歌AlphaGo开发团队负责人德米斯·哈萨比斯的话来说:“这并非基于预设规则的专家系统。AlphaGo利用了机器学习技术,通过自学掌握围棋技巧。AlphaGo以人类的方式去下棋。这一系统会像你我一样,在不断练习中提高。”
以AlphaGo与李世石的对弈为例。对于决定比赛走势的某几手,观战的中国围棋界人士认为,这些下法与之前的围棋软件明显不同,看起来仿佛是人类棋手的选择。而即使是在比赛结束后,AlphaGo的工程师也并不清楚人工智能为何会选择这样的下法。换句话说,AlphaGo如何下棋已不在工程师的掌控之中。
从专业角度来看,AlphaGo代表了一种“通用人工智能”。这样的通用人工智能具备学习能力,而学习对象包括除围棋外的许多其他领域。谷歌指出,癌症、气候变化、能源、基因、宏观经济、金融系统、物理学等知识系统都变得越来越复杂,信息正在“爆炸”,AlphaGo的技术将提供一种针对任何问题的通用解决方案。
这样的技术,在带来帮助的同时也在带来风险,是一把“双刃剑”。
首先,通用人工智能存在被武器化的可能。这类技术可被用于开发自我优化的武器,给人类造成极大的破坏。
更令人担忧的一点在于所谓的“技术奇点”。“技术奇点”可以被理解为人工智能发展的转折点。在这个转折点上,人工智能将迎来“大爆炸”。随后,计算机将迅速自我优化,智能程度超过人脑,甚至达到人类智慧水平的几个数量级,最终脱离人类控制。在这样的情况下,人类将无法控制,甚至难以判断,人工智能的行为会有利于人类还是威胁人类生存。
预测这种超级智能将于何时到来无法以历史作为参考。从人类社会发展史来看,自工业革命以来,过去两百多年的科技发展超过了之前数千年的水平。未来,人工智能的发展很可能将呈现逐渐加速趋势。
美国“曼哈顿计划”的领导者罗伯特·奥本海默表示,科学家总是会被技术前景所吸引而去开发新技术。直到新技术成功后,他们才会关注如何以正当方式加以利用。这一论断不仅适用于当年的核技术,同样也适用于人工智能。不少科技界知名人士都警告称,当人类意识到“技术奇点”到来时,可能为时已晚。
牛津人类未来研究所哲学家尼克·博斯特罗姆指出,通用人工智能成为现实将会是后果难料的事件。如果无法保证超级人工智能不伤害人类,那么人类永远不应制造这样的智能体。知名物理学家史蒂芬·霍金的说法则略显幽默:“人工智能的开发成功将是人类历史上最重要的事件。但不幸的是,这或许也会是最后一个大事件。”
未来,更高级的人工智能威胁人类生存已不再是天方夜谭。为了避免这样的事实发生,业内正做出多方面努力。AlphaGo的开发团队DeepMind在2015年的人工智能研讨会上签署公开信,承诺将把人工智能技术用于正当目的。在DeepMind出售给谷歌的交易中,哈萨比斯也要求谷歌成立专门的伦理审查委员会,负责监督人工智能的发展。
去年12月,特斯拉创始人伊隆·马斯克宣布成立非营利人工智能研究机构OpenAI,并联合多方向其投资10亿美元。这一项目试图扮演人工智能监督者的角色,判断各个人工智能项目是否按照正当的目标推进。
尽管AlphaGo目前的能力还仅限于围棋,但这很可能指示了人工智能加速发展的方向。当这些系统强大到不止可以玩游戏时,人类需要确保清楚它们的能力究竟有多强大,以避免机器成为未来世界的主宰者。
我要说两句