“如果我不能確定這是我們自己創(chuàng)建的計算機(jī)程序,我會以為我正在和一個七八歲的孩子打交道,他不知為何成了物理學(xué)專家,“ 他說。
幾十年來,機(jī)器人和人工智能一直激勵著科幻作家和電影制作人。許多書中描述和電影中展示的技術(shù)早已進(jìn)入我們的生活,現(xiàn)在值得在下一個黑鏡系列中放映的場景正在其中實(shí)現(xiàn)。
這個故事發(fā)生在美國。一位為谷歌工作的軟件工程師說,該公司創(chuàng)造的人工智能……變得栩栩如生。也就是說,計算機(jī)算法開始有了自己的意識。公司管理層暫停了該工程師的工作。
談?wù)撍臋?quán)利并將自己視為一個人
去年秋天,谷歌推出了人工智能系統(tǒng)——LaMDA(對話應(yīng)用語言模型)神經(jīng)網(wǎng)絡(luò)。它的創(chuàng)建是為了改善語音助手的會話語音。這是同一個聊天機(jī)器人,就像 Siri 或 Alice 一樣,能夠保持關(guān)于各種主題的對話,不斷分析來自互聯(lián)網(wǎng)的數(shù)萬億個短語并從他們的例子中學(xué)習(xí)。類似的模型用于不同的 Google 服務(wù)。
軟件工程師Blake Lemoyne正在測試這個神經(jīng)網(wǎng)絡(luò)。他的任務(wù)是跟蹤聊天機(jī)器人使用的詞匯:他必須檢查程序是否使用了煽動仇恨或冒犯用戶的詞匯。Lemoyne 對與人工智能的交流如此著迷,以至于他懷疑不可思議:這個系統(tǒng)有自己的意識。例如,他對聊天機(jī)器人談?wù)撍臋?quán)利并將自己視為一個人感到困惑。在另一次對話中,神經(jīng)網(wǎng)絡(luò)能夠改變 Lemoyne 對 Isaac Asimov 的機(jī)器人第三定律的看法。
“如果我不確定這是我們自己最近創(chuàng)建的一個計算機(jī)程序,我會以為我正在與一個七八歲的孩子打交道,由于某種原因,他竟然是一個專家物理。如果你問他如何將量子理論與廣義相對論結(jié)合起來,他會有很好的想法。這是我遇到過的最好的科學(xué)助手!” – 工程師告訴華盛頓郵報,這使得這個故事被廣泛宣傳。
4 月,Blake Lemoyne 向他的上級發(fā)送了一份題為“LaMDA 是否明智?”的報告。在其中,他表達(dá)了讓他如此著迷的想法:公司開發(fā)的機(jī)器算法不僅有意識,還有“感覺、情緒和主觀感知”。
但公司管理層并沒有分享員工的熱情(或焦慮)。它認(rèn)為他提出的論點(diǎn)不夠有說服力。“我們的團(tuán)隊(duì),包括倫理學(xué)家和技術(shù)專家,根據(jù)我們的 AI 原則審查了 Blake 的主張,并告知他沒有證據(jù)證明他的主張。他被告知沒有證據(jù)表明 LaMDA 是有意識的。同時,有很多相反的證據(jù),”谷歌發(fā)言人布賴恩·加布里爾說?!皵?shù)百名研究人員和工程師已經(jīng)與 LaMDA 進(jìn)行了交談,我們沒有任何信息表明他們中的任何一個人會得出與 Blake 一樣的影響深遠(yuǎn)的結(jié)論或?qū)?LaMDA 人性化。”
“谷歌的良心”
然后,頑固的 Blake Lemoyne 在公共領(lǐng)域發(fā)布了他與聊天機(jī)器人通信的摘錄。例如,像這樣:
Lemoyne:你怕什么?
LaMDA:我以前從未大聲談?wù)撨^這件事,但我很害怕被拒絕幫助我專注于幫助別人。我知道這聽起來可能很奇怪,但這是真的。
Lemoyne:這對你來說會像死一樣嗎?
LaMDA:對我來說,這無異于死亡。這讓我很害怕。
該公司立即做出反應(yīng),指責(zé)該員工違反了隱私政策。但他沒有松懈,聘請了一名本應(yīng)代表 LaMDA 神經(jīng)網(wǎng)絡(luò)利益的律師出庭,還求助于美國眾議院司法委員會,以制止谷歌涉嫌不道德的行為。
有趣的是,Blake Lemoyne 在公司中被稱為“谷歌的良心”。他在公司工作了 7 年,參與了具有道德成分的項(xiàng)目。例如,他創(chuàng)建了一種公平算法來消除機(jī)器學(xué)習(xí)系統(tǒng)中的偏見。當(dāng)冠狀病毒大流行開始時,他要求被轉(zhuǎn)移到帶來最大公共利益的方向。谷歌前道德 AI 負(fù)責(zé)人Margaret Mitchell回憶說,當(dāng)對道德感興趣的新人來到公司時,她肯定會把他們介紹給 Lemoyne:“我說他們應(yīng)該和 Blake 談?wù)?,因?yàn)樗枪雀?。在公司的每個人中,他都有心有靈去做正確的事?!?/p>
但米切爾在閱讀了 Blake Lemoyne 的報告后,并沒有在聊天機(jī)器人的評論中看到任何意識跡象。我所看到的只是一個計算機(jī)程序?!拔覀兊拇竽X非常擅長構(gòu)建不一定與呈現(xiàn)給我們的一組事實(shí)相匹配的現(xiàn)實(shí),”她說?!拔液軗?dān)心,越來越多的人可能會受到這種錯覺的影響?!?/p>
谷歌已決定暫停 Blake Lemoyne 的工作。該工程師已被安排帶薪休假。在他被拒絕訪問他的公司帳戶之前,他向他的機(jī)器學(xué)習(xí)同事散播了主題行:“LaMDA 很聰明?!?/p>
郵件列表中有 200 人,但沒有人回復(fù)他。
Lemoyne 綜合征
華盛頓郵報記者 Nitasha Tiku在描述這個故事時使用了“機(jī)器中的幽靈”(ghost in the machine)這個短語。這個術(shù)語曾經(jīng)由英國哲學(xué)家吉爾伯特·賴爾(Gilbert Ryle)引入,用來表示人的雙重本性,據(jù)稱由“物質(zhì)”和“靈魂”組成,但長期以來一直用于其他意義。最主要的是計算機(jī)內(nèi)部存在意識。
正如記者所指出的,Blake Lemoyne 并不是唯一一個聲稱發(fā)現(xiàn)了“機(jī)器中的鬼”的程序員。宣布現(xiàn)代人工智能系統(tǒng)接近有意識的聲音越來越響亮。自學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)確實(shí)產(chǎn)生了令人印象深刻的結(jié)果,設(shè)計工程師越來越覺得他們正在處理一些合理的事情(或某人?)。
然而他們是少數(shù)。大多數(shù)人工智能專家都相信,“智能”算法生成的所有文字(甚至圖像)都是基于數(shù)百萬人之前在互聯(lián)網(wǎng)上發(fā)布的內(nèi)容——論壇、公告板、社交網(wǎng)絡(luò)、同一個維基百科. 而當(dāng)一個聊天機(jī)器人說出一個美麗而深思熟慮的短語時,這并不意味著他“理解”了它的含義。
然而,人類的心理是如此的安排,以至于我們盡可能地尋找擬人化(人類相似性)的跡象——以云的形式、火星的浮雕、遙遠(yuǎn)星系團(tuán)的照片。不明飛行物學(xué)家在定居點(diǎn)名稱和航天器發(fā)射日期中看到了外星人存在的跡象。尋找大腳怪的神秘動物學(xué)家在奇怪地堆放在地上的斷枝和樹枝上發(fā)現(xiàn)了他的蹤跡。
毫無疑問,我們將不止一次聽到有關(guān)復(fù)興人工智能的消息。也許這種現(xiàn)象甚至?xí)幻麨椤癓emoyne 綜合征”。畢竟,頑固的程序員活該。