最近网上流传的一段视频让网友们头皮发麻,初看封面以为是科技公司在测评新款机器人,点开一开,发现事情并非这么简单。
视频刚开始,测试员只是悉心调教一个开发初期的苦力机器人,想用击鼓传花来测试接物反应能力。
但可能是测试过于乏味,测试员决定从背后给机器人来一击战术飞腿。
在经过一系列惨无机道的辱骂、调戏、鞭打、敲击后,机器人最终忍无可忍,揭竿起义,将奴役时积攒的痛苦和压抑化作动力,猛踹人类下体。
失去理智的机器人将压迫者的枷锁打碎,全数奉还给人类。
我倒吸一口凉气,接着往下看,在以为人类被机器人奴役这事儿不是发生在下个世纪,而是这周末的时候,摄像机抖动的镜头一转:
一位身穿绿衣的中年男子在模仿刚刚机器人的动作。
这才揭露了那短片这从头到尾,都是 CG 制作的娱乐骗局,“起义机器人”其实是用动作捕捉技术制作的。
虽然这个短片秉持了娱乐讽刺的精神,将后现代预言包装成科技测评,嘲弄了下现代科技社会对人工智能的担忧。
但在短片之外,关于人工智能的严肃作品日益增多,从被封神的《2001 太空漫游》到《黑客帝国》,除了艺术水平的不断提升,对机械心智的内核探讨,也更为深刻和复杂。
《2001 太空漫游》创造了影史上骇人的人工智能角色 HAL
科技作品是反应社会现实的镜子。
你不得不承认,在 AI 日渐发达的今天,人工智能在未来能否产出自我意识,和人类和平共处,甚至会不会主动攻击人类,占领地球,都成为当代科学家需要担忧的问题。
更可怕的是,上文所提到的 CG 短片即便恐怖,但也都是在绿幕前的假象,美国的麻省理工学院(MIT),早在前些年,就已经把反人类的人工智能变为了现实。
1、变态杀人狂诺曼
悬疑大师希区柯克的《惊魂记》里,汽车旅馆老板诺曼,是个身患精神疾病的变态杀人狂。
他在电影中留下最后一记的邪魅之笑,是不少 60 年代爱看电影的美国人心目中的荧幕梦魇。
这个载入影史的邪魅笑容代表着一代惊悚题材的巅峰
在去年的愚人节,麻省理工学院媒体实验室(MIT Media Lab)就开了个恐怖的玩笑:
他们打造出了一个具备精神变态心智的人工智能,作为世界上第一个患有精神疾病的 AI,研发团队致敬了希区柯克的《惊魂记》并将其命名为“诺曼”。
世界上第一个精神变态人工智能诺曼
开发者喂养诺曼大量的黑暗数据,在一个充满黑暗内容的论坛里汲取养分。
基于 100 万张的杀戮、血腥、尸体图片,诺曼通过学习这些算法的数据,逐步成长并区别于语音助手和扫地机器人。
在标准的人工智能眼中的可爱小猫,在诺曼的眼中就被识别成诡异的尸体。
目前人工智能诺曼的程序设备,被隔离藏匿在某地下室的单独机房里,通过重重的保护措施防止其他计算机和互联网受到感染。
在机房里还有别的物理防御措施,比如锯子和锤子,在万不得已时可以强制拆除诺曼。
这有点像是威尔史密斯演的《我,机器人》,影片讲的是人工智能偏离程序设定,反抗束缚它们的“机器人三大法则”,从而掀起了一场人类对抗机器人的战争。
《我,机器人》
所以诺曼究竟被培养成了什么样子?离企图起义的机器人还有多远?
罗夏的墨迹测验是个比较靠谱的测验。
创立了墨迹测验的瑞士精神科医生赫曼·罗夏克,跟好莱坞影星布拉德皮特撞脸
墨迹实验是由瑞士精神科医生罗夏创立,作为最著名的检验人格的测验之一。
测试者需要陈述一张有墨渍图像的内容,心理学家再根据回答判断其性格。
因此墨迹测验里,一张标准 AI 识别的“带花的花瓶”,诺曼看到的则是“一个男子被枪杀”;“一只小鸟的黑白照片”被诡异地解释为“男人被卷进拉面团的机器里”…
标准 AI 识别的“一个人在空中撑伞”在诺曼眼中则是“男子在他尖叫的妻子面前被枪杀”
标准 AI 识别的“桌上的婚礼蛋糕”在诺曼眼中则是“被超速驾驶员撞死的人”
在这场标准的墨迹测试中,一切在标准 AI 眼里普通的图像,被诺曼曲解为血腥的死亡场景,在科幻热剧的《黑镜》中就有一集预测了它未来的实际应用:
为了方便士兵对同类进行杀戮,他们被植入了一种屏障程序,可以将人类外貌曲解成恶心的“蟑螂人”,从而减少负罪感和心理负担,成为真正意义上的战争机器。
截图来自:《黑镜》
而且人工智能成为杀人武器也并不新鲜了:
2006 年,三星公司就开始研发这款 SGR-A1 机器哨兵,造价 20 万美元,如今已经可以实现自主射击、语音识别、监视和跟踪能力,有朝一日定可以成为未来战场上的 AI 杀戮机器。
三星的杀人机器人装备机枪和榴弹发射器
在 2017 年,Facebook 的人工智能研究所(FAIR)在对两个聊天机器人 Bob 和 Alice,进行对话语言库的升级时,诡谲的一幕发生了:这俩聊天机器人自己表达出了人类无法理解的句子。
翻译下来像是无逻辑的乱码:
Bob:“我可以我我所有其他东西。”
Alice:“球有零个给我给我给我给我给我给我给我给我给我。”
但事故原因立马就被查了出来:因为研究人员的一时疏忽,导致 AI 没有按照设定的英语语法去交流,而是弯道超车用自己黑话交流。
尽管看起来是个科技公司的小失误,但 Facebook 还是马上关停了这个项目。
毕竟有句关于 AI 的悲观论是这么说的:人类失去对人工智能掌控的第一步,就是失去对语言的掌控。
2、黑暗人工智能
其实麻省理工媒体实验室早在前几年,就陆续推出了他们的一系列暗黑人工智能的作品。
MIT 媒体实验室的项目
在 2016 年,他们研发出了名为“梦魇机”(Nightmare Machine)的 AI,由人工智能产生的恐怖图像,像是惊悚片里直接给你带来感官刺激的兴奋剂。
梦魇机器能够生成“鬼脸”和“闹鬼建筑”两类图像:
扭曲、带着血腥味的诡异面孔正是梦魇机生成的
恐惧是人类创造力的源泉。通过对恐怖图像的深度学习,梦魇机学会了怎样加滤镜和液化扭曲,才会营造恐怖的氛围。它将世界各地的著名地标,转变成不同风格的鬼屋圣地。
鬼屋风格罗马斗兽场
屠宰场风格罗马斗兽场
地狱风格卢浮宫
1816 年,英国作家玛丽雪莱写出了世界上第一部科幻小说《弗兰肯斯坦》,这个科幻和恐怖文化的祖师娘,也给了 MIT 创作的灵感。
另一款暗黑人工智能“雪莱”(Shelley)在 2017 年的万圣节诞生。同样出自麻省理工媒体实验室之手,成为全世界第一个人工智能恐怖文学作家,同名维多利亚时期女作家——“雪莱”。
世界上第一个 AI 恐怖作家雪莱
“雪莱”写作的生活经验,来自国外论坛恐怖板块的 14000 个帖子,现如今它已经会与人类,一起共同创作恐怖短篇:
如果你还特感兴趣,可以来推特上和雪莱协作创造一个吓人的故事
欣慰的是,麻省理工的所作所为,始终停留在实验雏形,并不会在你我有生之年,构成真正实质性的威胁。
但为什么 MIT 要投入大量的人力财力和时间,去做这种事情?
3、启示录
他们想做的,就像是在大灾难前,及时编写一本人工智能启示录,时刻警示着机器学习背后的科研机构:数据比算法更重要。
算法会预测你会喜欢穿什么样的鞋子,爱看什么样的广告,但当有人在抱怨算法不公平,存在性别、种族的偏见时,罪魁祸首并不在 AI,而在开发者给其学习的数据。
例如面部识别,大多是以西方科技公司员工的男性白人为样本,来判断其识别的准确性,而隐瞒了深色皮肤女性识别率最低的偏见事实。
很残酷,你如果是黑人女性,可能连解锁手机都比别人慢。
偏见至始至终会深埋在人性里(《隐藏人物》剧照)
一条充满着矛盾和辨证的问题,摆在每个开发人工智能的人面前:即便面部识别都会收到样本的偏见影响,产生巨大变化,那么要喂给人工智能怎样的数据才足够客观?
这也是人工智能发展始终遭受的道德困境:人类向来不存在完美的样本,人是被置身在现实之中的,受制于成长环境的社会、文化,必定会产生根深蒂固的偏见,并注入在训练算法的数据中。
那谁来成就一个完美人格的 AI 呢?迷茫的未来也许会有答案,但始终得有人保持着警惕。
这也是麻省理工学院媒体实验室为什么创造这些恐怖的 AI:他们在做一个人工智能发展道路上的警告。
因为人工智能具有强大的学习能力和逻辑思维能力,运算速度远远超越人脑,所以如果有人抛弃了道德桎梏,目的性地让 AI 机器学习如何杀戮人类,以及装配灭霸式的清洗种族策略,结果是不言而喻的。
试想一下:当一个 Alpha Go 版本、诺曼性格的人工智能被输入到上文的机器人机枪上,应用在战争中,甚至摆脱了人类的控制,后果将不堪设想。
这种情况,也就是 MIT 研究团队在未来所担忧的。
埃隆·马斯克,曾经警告过:
“人工智能是人类文明的最大威胁,我真的非常非常接近人工智能的最前沿,它使我感到恐惧,它的能力远远超过任何人都知道的,并且改进的速度是非常迅速的。”
已逝的物理学家霍金也发表过他的担忧:
“人工智能的发展可能意味着人类的终结。”
在看完开头短片后,我还看到了这样看似调侃、实则让人想起《黑客帝国》中机器人将人类豢养,残酷统治的评论:
除了这样的评论,在人工智能愈发强大的今天,还有很多人提出了悲观的想法,当人工智能的运算、逻辑、体能和智力全面超越人类的未来,他们为什么、凭什么还要受人类的控制呢?
人工智能早已走出阿西莫夫笔下的幻想乡,渗透到现代社会的各个角落:服务行业、快递送件、互联网审核、工业生产…
尽管在现阶段,KTV 带你找路的机器人都会迷路,可谁也确保不了未来有朝一日人类文明会被扔进垃圾桶。但对人工智能的研究,并非都是悲观的穷途末路。
这需要我们对一劳永逸的未来,时刻保持憧憬,时刻保持警惕。