人工智能最终会超越人类的智能吗?可能你之前看过一些国外媒体的报道,这些报道常常会以“霍金警告人类,人工智能终将超越人类智能”作为耸动的标题。的确,霍金指出,人工智能在未来可能对人类造成威胁。因为在霍金看来,随着人工智能的发展达到技术的临界点,我们可能实现一种“超级智能”,这种超级智能可以不断重新设计自己,这种演化的速度将会变得非常惊人。
而人类作为一种生物,我们的演化受制于生物进化的速度,因此无法与机器竞争,最终必然会被超越。从这些报道中,或许你会觉得,霍金是一个悲观主义者,他对于人类未来科技的发展充满了担忧。然而,霍金真的是这样想的吗?
在这本书中,霍金对于科技发展发表了更加完善的看法。从这些内容中,我们发现,霍金并不是一个悲观主义者。霍金强调人工智能等最新科学技术的风险,是因为他反对各种最新技术的滥用。他担心人工智能可能会侵犯我们的隐私,也担心世界上的军事力量可能会利用这种人工智能开发各种自动的军事系统,他还担心在未来,人工智能会产生出与人类相冲突的意志等等。
霍金的这些担忧完全是出于一种社会责任,所以,霍金曾经站出来,跟埃隆·马斯克等人工智能专家一起发表倡议,要求科学家们在研究人工智能给我们带来的各种好处的同时,必须注意到各种潜在的风险。
尽管霍金有自己的担忧,但他完全不是一个反对科学发展的人。恰恰相反,霍金期待着人工智能的发展。
他注意到了人工智能在围棋比赛、自动驾驶、电子商务等领域的巨大发展,他相信人工智能的技术会进入医疗、工作、教育和科学研究等诸多领域,让我们的生活变得更美好。因为霍金自己就深受运动神经系统疾病的困扰,他尤其关注“脑机接口”领域的进展,通过这种接口,人们可以通过大脑与电脑之间的连接实现交流。
如果这样的技术可以更早地诞生,或许霍金本人就可以通过植入在大脑中的连接控制身体的动作,又或者,他可以直接将自己的大脑连接到互联网。这样,或许霍金可以做出更伟大的科学发现,也或许全世界的科学家都可以从霍金的“灵光一闪”中受益。
因此,霍金在他的书中提到,他对于人工智能的未来并不悲观,只要我们能够认识到人工智能技术潜在的风险,他相信人类在未来可以和人工智能和谐地工作。从这一点上来看,你会发现,其实霍金对于技术发展的态度是积极的,我们以前读到的许多报道可能只是由于记者们过于“标题党”的缘故。