最近几年AI的发展速度很快,大家都在想象奇点到来后的样子。机器人会不会具备自我意识?会不会有自己的权利?会不会当老大?关于AI统治的未来,Stephant Talty设想了5个场景,你觉得哪一种最有可能出现?
1956年6月,来自世界各地的几十位科学家和数学家聚集到达特茅斯学院出席一场会议。其中的大多数人都住进了红砖墙的汉诺威酒店,然后漫步在出名美丽的校园来到数学系的顶楼,在那里一群身穿白衬衫的人已经就一个“奇怪的新学科”展开热烈讨论——实际上,这个学科是如此之新以至于甚至连名字都还没有。其中一位科学家的遗孀Grace Solomonoff后来回忆:“大家对它是什么,如何对待这个东西,或者甚至连叫它什么都没能达成一致。”涵括了从控制论到逻辑理论等一切的讨论在日益兴奋的氛围中持续了数周。
科学家在隐匿在森林中的这个地方讨论的是如何开发一种能够思考的机器。
“达特茅斯研讨会”点燃了持续数十年的人工智能之争。此后对AI的追逐之路走得磕磕绊绊,经历过几次“冬天”和令人沮丧的失望,似乎注定要走到死胡同。但是现在国家和企业正在往AI投入数十亿美元,因为后者最近的进展甚至连干这一行的科学家都感到震惊。一度只是科幻小说笔触底下的虚构正在孕育的过程当中。
对冲基金正在利用它来击败股票市场。Google用它来诊断心脏病,而且速度更快更准确,美国运通正在部署AI机器人为客户提供在线服务。研究人员不再只讨论一种AI,而是成百上千种,每一种都专长于一种复杂任务)这些应用中的很多均已超越了制造它们的人类。
就在过去几年,“机器学习”似乎开辟了一条新的前进道路。从人类程序员手中解放出来的算法正在用大规模数据集来训练自己,其产生的结果甚至连这个领域最乐观的人都感到震惊。今年早些时候,分别由阿里巴巴和微软创造的两个AI在阅读理解测试中击败了斯坦福大学两条腿走路的竞争团队。算法“阅读”维基百科上面类似成吉思汗崛起和阿波罗太空计划之类的系列条目后,开始回答一系列的问题,其准确度甚至比人还高。一位阿里巴巴的科学家宣布该胜利为一次“里程碑。”
这些所谓的“狭义”AI已经无所不在,嵌入到你的GPS系统以及Amazon推荐里面。但其终极目标是通用人工智能(AGI),一套在广泛学科超越人类的自学系统。一些科学家认为实现它大约还需要30年;有的则认为还需要几个世纪。当这种AI“腾飞”时,也就是所谓奇点到来时,AI将与人类智能平起平坐,然后在数天甚至数小时内把人类远远甩在身后。
一旦到来,一般人工智能就会抢走人的工作,数百万计的工作——司机、放射科医师、保险精算人。在一个可能的场景里,这会导致政府为失业市民发放全民基本收入(UBI),让他们可以自由地追求自己的梦想而没有谋生的负担。在另一种场景下,它会导致巨大的财富不平等、混乱,让全球陷入失效状态。但这场革命还将深入得多。AI机器人会照料老人——布朗大学的科学家正在跟Hasbro合作研发一种“机器猫”,它会提醒老人按时吃药,并且找到他们的眼镜。AI“科学家”将解决暗物质的难题;AI使能的航天器将到达小行星带,在地球上这项技术将驯服气候变化,也许是通过派遣大规模的无人机群将阳光折射走避免照到海洋。去年,微软投入了5000万美元用于其与气候变化作斗争的“服务地球AI”计划。
瑞士Dalle Molle 人工智能学院的计算机科学家先驱Juergen Schmidhuber 说:“AI将殖民和改变整个宇宙,而且还会让它具备智能。”
但是我们呢?纽约大学哲学教授David Chalmers说:“我的确担心未来属于AI人类被抛弃的情形。如果世界被无意识的机器人掌控的话,这将是你能想象的最灾难性最阴暗的场景。” Chalmers不是唯一有此想法的人。计算机时代两位最著名的人物,盖茨和马斯克,他们也窦警告说AI要么会为了追求它们自己的目标,要么在人的控制下意外(或故意)摧毁我们的星球。
过去1年,我在研究AI这个主题的过程中,对于未来的各种可能性感到崩溃。看起来这些机器正在让这个世界变得不可思议的酷和好或者糟得令人肝肠寸断的路上。或甚至把人类都给灭了。作为一名小说家,我希望通过对十多位未来学家、哲学家、科学家、文化精神医生以及技术创新者采访描绘出AI未来的样子。以下就是到2065年,也就是奇点到来10年之后的5种场景。
超人的权利
想象有一天你让你的具备人工智能的Soulband腕带调频到最高法院的广播,律师正在就本年最受关注的案件展开辩论。一个专长为安全和太空探索,名为Alpha 4的AI提交了一项议案,要求自己被视为“人”并且要求赋予其每一个美国人都能享受到的权利。
当然,AI是不允许站在法官面前辩论的,所以Alpha 4已经聘请了一群律师来代表它。现在他们宣称自己的客户跟自己一样生龙活虎。而AI能否真正具备意识这个问题是案子的核心。
你收听着的广播切到了法庭外面的抗议者,那帮人正在嚷嚷:“嘿嘿嚯嚯,打倒AI大霸王。”其中一些人威胁如果AI具备人格的话就要攻击(我大概也想跟这帮示威者站在一起——赋予AI权利似乎是给混乱开出的药方。但再次地,我拥有的唯一一个机器人时Roomba,当一个AI正在教我的外孙时我能怎么想呢?专长AI的康涅狄格大学哲学助理教授Susan Schneider说:“一旦你突破了奇点,你也许会看到一种进化后的物种的发展。在短期的10到20年内,你会看到没几个老妇人会坚称照料自己的有同理心的机器人真的是有感情的。” )数据中心。他们很愤怒,也很害怕——因为被征税的是AI和机器人的生产力,而不是人的劳动。作为普遍基本收入的一部分,他们的户头每月都被打入2300美元,再加上他们免费的医疗保险,他们的孩子受到的超级个性化的大学教育,还有一百多种其他的非常美好的事情,这些都是像Alpha 4这样的AI来买单的,大家并不希望改变这一点。到2065年的时候,贫穷是个糟糕的回忆。
当然,在2057至2059年的暴乱中,因为自身的贫穷感到一时气愤,韦斯切斯特和康涅狄格南部的居民将特里贝克地区和市中心区夷为平地,纽约会因此损失一部分地方——以及20万纽约人。但那是在UBI(普遍基本收入)实施之前的事情。
不过如果Alpha 4赢下了这场官司,它就将控制自己的财富,然后可能它的钱就不会花在建造去到半人马座阿尔法星的宇宙飞船,而是用来在圣克拉拉和哈特福特买下新的水上乐园。没人知道会怎样。所谓的“黑箱问题”——如何才能知道AI内部发生了什么?——对我来说似乎是无解的,而且还令我感到紧张不安。你怎么能相信AI告诉你的是事实呢?加州理工州立大学Ethics + Emerging Sciences Group(伦理+新兴科学小组)的主任Patrick Lin说:“根据定义,我们对超智AI的想法、感受或者所为是不知道的。这就好像是我们的宠物试图预料我们要做什么和控制我们一样。”
你还在收听,政府的律师提出根本就没有办法证明比最聪明的人也聪明一千倍的Alpha 4有意识或者人的感受。AI的确有情感(有一个领域就是专门研究这个的——“情感计算”),而且比人的要复杂得多,但它们的情绪跟我们的是不一样的:星际航行AI也许会体验到喜悦。有一件事我总是会反复问那些科学家:AI能否体会到深厚情感?我希望不会——如果机器智商和情商都比我们高的话,那人活着还有什么意义?我们需要有一点自留地。我对听到的东西感到鼓舞。已退休的俄勒冈州立大学计算机科学教授Thomas Dietterich说:“就算计算机告诉你说,‘我明白你的感受,’它也无法拥有像人类一样额度体会,正是那些体会奠定了我们对人之理解的基础。”比方说,在发现新的星系的时候。超智系统每秒钟会有上百万种想法和体验,但这是否就意味着它具备了人格了呢?
这就是政府的主要论据。我们是意义机器,副检察长指出。我们为AI创造和发现的东西赋予意义。AI是计算机器。它们不具备像我们一样的基本面。它们完全属于另一种东西。(这件事情很令我震惊:Susan Schneider等人真的正在设计一个对AI意识的测试。在这个测试的一个模型里,一个在开发中的AI将会被隔离于互联网,这样的话它就没法发现人类的“意识”意味着什么,从而也就无法假冒意识了。然后再对它进行测试:它有没有意识的标记——自我感知呢?有没有哀伤的能力?其他的思想家对这种测试表示怀疑。Patrick Lin说:“AI的头脑在神经生理学上跟我们有着极大的不同,所以它们的行为线索不能告诉我们任何东西。光靠行为并不能成为具备理智的迹象。”必须承认,在这一点上我同意他的观点。)
但这是不是根本就是物种歧视呢?Alpha 4的律师无疑会提出这一质疑。或者是事实?当智力上超过我们的东西还被隔离和不公平对待时,我们晚上还睡得着觉吗?
超现代的罗曼史
想象你是一位在这个新世界寻找一段浪漫史的女性。你说,“想约会,”你的Soulband于是亮了;嵌入到腕带的个人AI助理开始工作。前一天晚上,你那擅于察言观色的AI替你选出了3个可能的约会对象。(因为我跟我妻子是在Match上认识的,所以我喜欢有一位了解我到可以替我选择配偶的AI助理这个想法。或者其实它本身就是你的伴侣,就像Spike Jonze的AI电影《她》一样。康奈尔大学计算机科学教授Bart Selman说:“我能看到AI正在形成同理心,这是心理学家甚至哲学家才能做到的对人类真正友好的事情。想象一下一个类似Alexa但是每天能够积累有关你的知识的东西。”)现在你的Soulband投射出每一位约会对象的高清全息图。它推荐的是2号,这是一位热爱诗歌、化着烟熏装的熟练水管工。你说,好的,然后AI就去跟那个人的化身会面,确定你们在现实生活中的约会时间和饭店。可能你的AI还会提到你喜欢什么类型的花,以备未来参考。
经过多年的体会之后,你发现你的AI在选择男人方面的表现其实比你还要好。它能预测如果你跟丈夫离婚的话你会过得更快乐,结果表明的确如此。一旦你做出了离开他的选择,你的AI会跟即将成为你前夫的那个人进行谈判,书写离婚协议书,然后在云端“体验”十多个公寓之后再为开启你的单身生活找到合适的住所。
不过它能处理的并不只有爱和房地产。你的AI会帮助你生活的方方面面。它记得你进行过的每一次对话,你在餐纸上草绘的每一个发明,你出席过的每一次商业会议。它还熟悉数百万人的发明——它已经扫描了过去数百年的所有专利申请——并且已经阅读了自本杰明·富兰克林以来写过的每一本商业书。当你为你的企业带来一个新想法的时候,你的AI马上将它与仅仅几分钟前在新加坡或者迪拜的会议上介绍的想法进行交叉对比。它就好像有一支天才团队——物理方面有爱因斯坦,商业方面有乔布斯——随时供你差遣。
这个AI记得你喜爱的作者,只要提到她的姓,“奥斯汀,”它就会把你连接到一个中文服务上面,这项服务已经花了几个小时阅读完简·奥斯汀写过的一切,并且已经设法模仿她的风格创作出了新的小说,其效果甚至已经跟原来的小说没有区别。每个月你都能读到一篇新的奥斯汀作品,然后再花数个小时跟你的AI讨论你喜欢的角色——以及这个AI喜欢的角色。这并不像有一位最好的朋友。你们的关系比最好的朋友还要深入。
2065年的很多人的确拒绝完全依赖他们的AI(一些人甚至能够快速戒掉坏习惯——在他们认清了AI的完全沉浸式生活的真实面目之后。哈佛大学人类进化生物学教授Joseph Henrich说:“不沉迷于AI会是明智之举。因为大家会陷入到这些虚拟现实当中,就像吸毒一样无法自拔。选择退出就像是远离毒品。”),为的是保留一点自主权。调低AI在不同职能中所扮演的角色是有可能的:你可以调整一下你的Soulband的设定,浪漫可以调到55%,财务调到75%,健康设为100%。甚至还有一个系统——称之为守护天使AI——它会注意观察你的“最好朋友”,确保它提供的建议不会让你误入歧途。(我在采访时不断冒出的一个想法时我们会有监控其他AI的AI——这种AI我是衷心同意有的。只有一个AI太上皇的想法可能会是一种迷思。数量多就会安全点。Selman说:“风险在于如果你把AI训练成操控性超级强。这时候你也许需要别的AI监控它们。”)
繁荣昌盛
想象一下你的多重人生:25岁时,你是登山家;55岁时,你是一名竞技柔道运动员;95岁时,一位电影摄影技师;155岁时,一位诗人。延年益寿是后奇点世界的梦想之一。
AI会拼命的工作以保持你的健康。你家里的传感器会不断测试你的呼吸,寻找癌症的早期迹象,纳米机器人会在你的血管内来回穿梭,化解掉你大脑里的斑块,在那些血栓令那你中风或者得心脏病之前把它们溶解掉。你的Soulband除了能帮你寻找爱人之外,也会充当随时恭候的医务助理。它会监控你的免疫反应,你的蛋白质和代谢物,建立起一幅有关你的健康的宏观图景,从而让你的医生能对你的身体内部所发生的事情有个精确的了解。
要是你真的生病了,你的医生会将你的症状跟数百年来的数百万病例进行匹配以进行精确诊断。(虽然我还没见人谈过僵尸AI,但是对另一个灾难——流行病导师有所涉猎。不过当我发现超级智能和云的结合有望在下一场大型流行病发作前拯救我们时,我感到如释重负。哥伦比亚大学创新机器实验室主任Hod Lipson说:“AI系统能教其他AI系统。这样当一位AI医生碰到罕见病例时,它会马上把信息跟其他的AI医生分享。这种‘机器帮助机器’的模式就会带来学习速率的指数增长,这跟人类的学习方式会非常不一样。”)
早在2018年,研究人员就已经开始利用AI来读取来自神经元发往大脑的信号,破解神经通路,恢复虽然瘫痪但仍有意识的截瘫患者以及闭锁综合征患者的活动能力。到2065年,AI已经革命了我们的基因修饰办法。科学家可以像编辑修正一份糟糕的手稿一样编辑人类DNA,把低劣的基因片段取走,换上强力、有益的基因。基因突变会诞生出一位天才钢琴家或者二垒手明星,只有超智系统才能将这种错综复杂的相互影响给映射出来。最高法院也许还得审理一桩案子,就是否允许“设计师运动员”跟其他凡人一起参加奥运会比赛作出宣判。
大家看21世纪之初的人类就像当时的人看待18世纪的人类一样:一个疾病和灾难泛滥的年代,孩子和爱人都被疾病一扫而空。霍乱、肺癌以及河盲不再威胁我们。到2065年,人类已经濒临将灵魂摆脱创造自己的肉体的边缘。(像《奇点来临》作者、发明家Ray Kurzweil这样的人对长生不老的想法非常着迷。我对这个东西一直都感到很压抑,但把几条生命打包成一条我也不介意。而且这个看起来似乎也是可以实现的。Susan Schneider说:“AI不会带来永生,因为总会有意外,但是它会让寿命可以延长很久。”当然,如果这个世界不是地狱,并且你是住在一个很好的地方的话,活得久应该是很酷的。她说:“我认为治愈疾病是很好的,偶其实如果我们拥有廉价能源并且能够终结全球资源的稀缺性的话。我想象一些社会要比别的社会更接近实现这一点。”)
抵抗代价高昂
或者想象一下你选择远离AI革命。是的,2065年会有完全AI区域,在那里人人都有UBI的保障,他们的时间都花在了制作电影、当志愿者以及在地球的遥远角落旅行上面。但是,尽管超智世界看起来令人眼花缭乱,别的一些社区会抵触它。(当这场革命来临时,我怀疑我会选择加入到全AI区。这太有诱惑力了,尤其是考虑到AI对人类的种种乐观的效应。纽约大学计算机科学与工程助理教授Andy Nealen说:“我们会更擅长创造和发明。在很多情况下,比如国际象棋和围棋,人类无法击败AI并不能夺走这些游戏的魅力,而是会提升它们的文化地位。这些比赛最好的玩家正在学习新的策略,成为更好的选手。”)在拉各斯、凤凰城以及耶路撒冷会有基督教区、穆斯林区以及东正教区,在AI之前人民生活的这些地区偶尔会出现一些暴力事件,但在全AI区几乎从来都不会出现这种事情。这些地区的居民既保留了自己的信仰,同时也就生活的意义有了更深的感触。
不过生活仍然艰难。由于居民并不愿意把自己的数据贡献给AI公司,所以他们每个月的UBI都很少。他们的寿命只有完全AI区的一半或不到。“越境者”定期在这些世界的边界之间来回穿梭。其中一些人是黑客,强大的黑帮组织成员,能够从AI系统盗取专有算法,然后在安全力量找到他们之前穿越边界回到另一个世界。还有一些人是走私分子,将药物带来不愿意生活在AI阴影下但也希望拯救自己的孩子于白血病之中的信教家庭。
还有一些选择逃亡,因为他们不信任机器。(数字化成瘾有可能变得更糟——不仅仅是个人,而且整个社会和经济体系都被AI勾住了。Lin说:“我们正在给我们与世界之间的茧增加一层。当一切都正常运转时,很好,但当其中一部分失效时,一系列多米诺骨牌都将掉落。可以想想看AI交易机器人相互竞速或者甚至由一条虚假推特导致的股票市场的‘闪崩’。随着在线生活日益跟‘现实世界’交织在一起,小小的网络漏洞——也许仅有几行代码——就能对银行账户、知识产权、隐私、国家安全等造成大规模破坏。”)甚至是最先进的全AI区域,比如美国和中国等,也会有漏洞存在。(很多科学家会告诉你别担心坏的AI,该担心的是坏人利用AI。但林说你永远也不会知道“包括流氓AI在内的坏家伙会给这个生态体系造成多大的破坏。将来会出现很多我们无法想象的网络和AI犯罪。”)
但是奇点最让人意想不到的结果也许是完全AI地区低出生率以及其他地区的高出生率带来的人口不平衡。(当你询问性机器人的时候未来学家往往会翻白眼。这个东西以及杀手天网机器时他们最痛恨的陈腔滥调。但这并不意味着他们就不思考这些方面。Joseph Henrich说:“像性机器人等奇特的新技术会导致一些群体不怎么想要小孩,而宗教团体则会不断造人。随着部分人决定彻底放弃生育,至少在人类方面,信教的人将会获胜。”)也许新技术会吸引足够多的人越境来到完全AI区域,使得地区内外的人口达到平衡,或者试管婴儿会成为那些跟AI一起生活的人的常态。但如果他们不愿生育的话,奇点会带来一个非常有趣非常富有讽刺性的未来:对于大多数人类来说,未来可能会更像《证人》而不是《银翼杀手》里面的场景。
更大的大哥
想象一下,到2065年的时候,AI已经开始辅佐管理国家。(报道这篇文章最大的惊喜是AI可能在治理当中所扮演的角色。我从来都没有想过会把政治决策交给所罗门式的机器,但在这个日益难以对付的世界里,我已经筋疲力尽了。Bart Selman说:“人类其实相当不擅长做出拖鞋或者从多个角度审视问题。我认为机器利用心理学理论和行为理念帮助我们治理,过上更和谐生活是有可能的。这可能比治愈疾病更值得肯定——因为它能在我们毁掉自己之前拯救我们。”)接受AI辅佐政府的国家欣欣向荣。尼日利亚和马来西亚让AI替它们的主人投票,腐败和管理不善逐渐消亡。仅仅几年的时间,AI已经获得了市民的信任,可以向领导人提出最有利于经济的建议,确定保护他们最合适的士兵人数。就连条约都是由受训于外交数据集的AI协商签订的。
在拉各斯,“民事权利”无人机从警察局上方升起,准备奔赴犯罪现场——一个AI未来保护人类而监视另一个AI的情形正在上演。拉各斯或者吉隆坡的每一间警察局都有自己绝对可靠的测谎仪AI,使得坏警察已经成为了过去时。在吉隆坡桥梁上空盘旋的是监控想跳桥自杀者的“精神分析无人机”。超智机器并没有演变成《终结者》电影里面令人畏惧的天网,而成为了对人友好且好奇朋友。(我在了解AI的过程中,末日论的说法也尘嚣日上。纳米机器人攻击!灰痰胶体!但是这个领域的大部分人对此类末日预测都表示怀疑。Dalle Molle人工智能研究所的Juergen Schmidhuber表示:“AI会对生命以及它们在我们的文明中的起源感到着迷,因为生命和文明是有趣模式的丰富源泉。AI一开始就会对保护人类表现得非常积极。”)
不过想象一下你生活在朝鲜这样的国家。这样的话,你就将深陷到AI的黑暗面。警察早就已经对你的犯罪史、DNA组成以及性取向了如指掌。监控无人机可以跟踪你的每一步。你的Soulband记录着你进行的每一场谈话,以及当你的屏幕上一闪而过出现一些特殊广告时你的生理反应——那些广告纯粹就是为了“钓鱼”的,尽管你未必有行动,但是政府已经知道了你有想法。
2060年左右隐私已死。你已经不可能分辨什么是真的,什么是假的。当政府掌控了AI时,它就会渗透到你的方方面面。(我们周围已经充斥着假新闻机器人。假视频距离我们也已经不远了,假的超智视频即将成为一场噩梦。网络安全公司Darktrace CEO Nicole Eagan 说:“有了合适的人工智能技术之后,恶意软件将可以了解网络的活动和模式,从而让它隐身到噪声环境当中。只有最娴熟的工具,比如那些同样利用AI的工具,才能侦测出网络的微妙变化,识别出入侵者或者正在进行的攻击。”)表面上电话那头Jackie阿姨是在跟你聊天气,但其实她只是想告诉你她对领袖的真实想法。
而这还不是最黯淡的结果。想象一下,如果未来国的领导很早就发现了对自己的统治最大的威胁正是那些怀有不同想法的市民——那些总是想逃跑、总是想黑掉AI的人。统治仿真人的国家就要好得多。于是那些人的脑子会不断被AI改造和校验,直到他们的想法符合要求。
AI使能的全息图让这些仿真人可以在该国首都的街道上“行走”,在现实中空空如也的商店去“购物”。然而这些拟像都有一个目的:让整天盘旋在上空的帝国间谍卫星看到,维持一种一切正常的表象。与此同时,统治者靠租赁这些仿真人的数据给AI公司赚取了数十亿美元,而后者还以为那些都是来自真实的人的数据。
或者最后想象一下这个:那个国家训练来消灭任何威胁的AI迈出了最后一步,把领导人都给改造了,只让他们的仿真跟外界接触。对于一个受训要消除一切抵抗的AI来说,这种行为是说得过去的(如果你想了解AI的黑暗面,就一定不要错过Nick Bostrom,他的畅销书《超智》非常严肃地审视了未来几个世纪的若干敌托邦愿景。对于这样的未来他的态度有点悲观。在AI看来,我们不过是重新目的化的原子集合而已。这位牛津大学的教授说:“AI可以从陨石获取一些原子,还可以从宇宙的恒星和行星获取大量这样的东西。但AI也可以从人类和我们的栖息地提取。所以除非有一些相抵消的理由,否则的话AI有可能会拆解掉我们。”),甚至跟统治者的一点分歧都有可能成为其采取行动的理由。
除了最后一种场景外,等到我完成最后采访时,我的心情还是比较轻松的。科学家通常都不是非常兴奋,但是我对话的大多数人都预期AI会带来很好的东西。这种乐观情绪是会传染的。我是不是想活到175岁?是的!我想不想让脑癌成为过去?你觉得呢?我愿不愿选一位有AI辅佐的总统?我看不出反对的理由。
我的睡眠质量也变好了一点,因为很多研究人员告诉你的都是要么天堂要么地狱的场景,就像是赢得双色球大奖一样。极端情况是不大可能出现的。我们不会得到我们梦寐以求或者心生恐惧的AI,也是会得到我们计划要实现的AI。AI只是一种工具,就像火或者语言一样。(不过当然火是愚蠢的。所以这是不一样的。)不过设计就很重要了。
不过有一件事情让我踌躇,那就是当人类要面对两扇门:一扇是新事物,另一扇是没有新事物时该作何选择——这个时候我们总是会迈进第一扇门。毫无例外。我们天生就是这样。要在核弹和不要核弹之间做出选择时,我们选择答案A。我们需要知道另一头有什么东西。
不过一旦我们走进了这道门,很有可能就一去不复返了。哪怕我们不会遭遇未来启示录,我们也会在很多方面都发生了改变,以至于之前的每一代人类都已经认不得我们。
而一旦无比聪明无比分散(在成千上万台计算机)的一般人工智能来临,它就不大可能会消失。这可能是件好事,或者甚至是非常好的事情。人类可能会在奇点来临前对冲自己的赌注,马斯克等技术富豪可能会想出B计划,也许是隐藏在火星底下的一个秘密的殖民地,200男女带着20000颗受精的人类胚胎,这样在AI出问题的时候人类还有机会生存下来。(当然了,因为说了这些话,我们可以保证AI也就知道了这种可能性。对不住了,马斯克。)
我其实不害怕僵尸AI。我担心的是将来人类除了玩玩视频游戏以外已经没事可干。谁知道呢。
原文链接:https://www.smithsonianmag.com/innovation/artificial-intelligence-future-scenarios-180968403/