文/朱昌俊
人工智能會打敗人類嗎?這個植根于人類內心深處的擔憂,似乎到了必須直面的關口。日前,一則關于“AI有靈魂”的消息,震驚了全球科技圈。谷歌一位軟件工程師表示,有“開放式對話黑科技”之稱的谷歌人工智能聊天機器人LaMDA已經(jīng)有了人一樣的感知力,甚至具有了人的“靈魂”。隨后,谷歌暫停了他的職務,并否認了他的說法。
公開信息顯示,LaMDA是一個AI語言模型的名字,它專門用于對話,目標是與人類展開高質量的交談,應用愿景是為谷歌旗下的搜索和語音助手等功能提供服務。通俗地說,它是一款專門用來“說話”“聊天”的AI機器人。類似的AI應用,其實在很多領域都已出現(xiàn)。但LaMDA之所以引發(fā)了一場不小的風波,就在于與之長期打交道的工程師發(fā)現(xiàn),它居然“越來越像人”。甚至,被指已經(jīng)“具有意識和靈魂”。所以,這位工程師向谷歌提出,在拿它做實驗前,應事先征得它的同意,否則就有違道德倫理。
從一些對話記錄來看,LaMDA似乎展示了讓人吃驚的“人性”。比如,當被問到“(成為)一架真正好的紙飛機的秘訣是什么?”時,LaMDA反問道,“我首先要反問你,你指的‘好’,它的定義是什么?”甚至談到語言時,LaMDA自然地用“我們”囊括人類與它自己,被指出人機差異時,它解釋道:“這并不意味著我沒有和人類一樣的需求?!笨傊芏嗷卮鸪隽巳祟悓τ贏I機器人的想象力,由此也就觸發(fā)了很多人內心里關于“AI會不會比人更聰明”這份隱秘而真實的恐懼。
不過,綜合目前專業(yè)人士的意見來看,“LaMDA具有意識和靈魂”的判斷并沒有足夠的科學原理支撐。谷歌方面就表示,LaMDA是一個自然語言模型,本質上來說,它的工作和谷歌搜索欄里的自動補全沒有什么不同,都是通過給定的上下文預測用戶的意圖。只不過,當LaMDA的參數(shù)量達到1370億這個量級時,它把這項工作完成得非常出色,以致于可以短暫地欺騙人類。也就是說,LaMDA可能的確比一般的AI機器人更“聰明”一些,但它依然是在人給定的條件下工作,并不能說它就有了意識和靈魂。
還有專家表示,LaMDA的回答之所以如此像人,與提問者的刻意引導有關。甚至有專家給出了一個比喻:聲稱它們是有感知能力的,就相當于狗聽到留聲機里的聲音后,以為主人在里面。隨著關注度的上升,還有聲音質疑,這起事件有可能是谷歌針對旗下AI產品的一次“自導自演”的營銷活動。因此,所謂的“AI具有意識和靈魂”,不過是虛驚一場。
當然,此事鬧出這么大的動靜,值得探討的東西的確不少。一方面,從公眾對這起事件的反應來看,大家對AI“戰(zhàn)勝人類”“比人類更聰明”的擔心,的確是客觀存在的。這提醒,AI發(fā)展的過程中,相應的科普工作不能少。值得注意的是,現(xiàn)實中大多數(shù)人對于AI的認知,以及對于“AI將打敗人類”的擔憂,主要是源自各類科幻小說、影視作品的“熏陶”。而這些“虛構”的AI圖景,與現(xiàn)實當中科學意義上的AI發(fā)展和應用,到底有多大差別?又會帶來多大的誤讀,繼而放大人們對AI不必要的恐慌和偏見?對此,顯然需要在AI與大眾之間搭建一條科普、互動的橋梁,以提升全社會對于AI“真面目”的認識程度。
另一方面,隨著AI研究和應用的快速推進,其技術倫理規(guī)范確實越來越成為一個不可忽視的問題。這次事件,其實就是由倫理之爭所引發(fā)的。涉事工程師與谷歌爭議的焦點,表面看是對于LaMDA是否具有靈魂的爭論,但背后實質是在人工智能應用倫理上的分歧。并且,公開信息顯示,這至少已經(jīng)是谷歌第二次與員工在科技倫理問題上產生爭議。如此現(xiàn)實表明,在人工智能研究和應用過程中,哪怕是在同一家公司內部,也會輕易觸碰到倫理之爭。
據(jù)此而言,盡早制定人工智能的科技倫理規(guī)范和標準,為新興技術倫理治理設置好“紅綠燈”的必要性已越來越突顯。事實上,此前特斯拉CEO馬斯克就主張,“對待人工智能,人類應該在條例法規(guī)上先發(fā)制人,而不是在發(fā)生問題后再采取監(jiān)管措施”。當然,作為全新的事物,人類對AI的認知還存在太多的未知,倫理規(guī)范必須考慮到對風險與創(chuàng)新的平衡,這方面的工作可能比想象中更復雜。目前,全球都仍處于摸索階段。值得一提的是,今年3月,我國印發(fā)了《關于加強科技倫理治理的意見》,明確提出要重點加強生命科學、醫(yī)學、人工智能等領域的科技倫理立法研究,這是我國發(fā)布的首個國家層面科技倫理治理指導性文件。
僅就這起個案來看,所謂“AI機器人已經(jīng)有了意識和靈魂”的判斷,并未獲得足夠的科學支持,對此,我們大可放下心來。并且,AI機器人越來越聰明,與它是否有靈魂,嚴格說也是兩個概念,不該被混為一談。比如,科幻作家劉慈欣就有一個被廣為傳播的說法:“AlphaGo贏不了柯潔,惱羞成怒,拿起棋盤往柯潔腦袋上砸”,這才是真正的人工智能。而我們距離這一步,顯然還有相當長的距離。所以,眼下就過于擔心人工智能會威脅、超越人類,未免有點反應過度了。
但著眼未來,隨著人工智能技術研究持續(xù)推進,思考并積極應對人類如何跨越“恐怖谷”,以一種理想的方式處理好人與AI的關系,依然有著極強的現(xiàn)實意義?!翱植拦取钡母拍?,是日本機器人專家森昌弘在上世紀70年代提出的,它的主要理論就是:由于機器人與人類在外表、動作上相似,所以人類亦會對機器人產生正面的情感;而當機器人與人類的相似程度達到一個特定程度的時候,人類對他們的反應便會突然變得極其負面和反感;當機器人和人類的相似度繼續(xù)上升,相當于普通人之間的相似度的時候,人類對他們的情感反應又會再度回到正面。從這次“LaMDA事件”所激發(fā)的公共反應來看,我們或許正處于從第一階段向第二階段的過渡期。在這個階段,如何減輕社會對AI發(fā)展的反感乃至恐懼,值得從企業(yè)到監(jiān)管機構嚴肅作答。
作者為媒體評論員
(校對:張國剛)