人工智能未來(lái)如何, 它對(duì)于人類(lèi)又意味著什么都是當(dāng)下的熱門(mén)話題。關(guān)于人工智能未來(lái)對(duì)工作市場(chǎng)的影響;達(dá)到人類(lèi)水平的人工智能是否以及何時(shí)會(huì)出現(xiàn);這又會(huì)不會(huì)引發(fā)智能大爆發(fā);對(duì)于這樣的未來(lái)我們是應(yīng)該積極擁抱還是感到害怕等諸如此類(lèi)的問(wèn)題,世界頂級(jí)專(zhuān)家之間一直存在爭(zhēng)議。但是也有一些煩人的偽爭(zhēng)議是由于人們理解錯(cuò)誤和總是彼此討論不休引起的。為了幫助我們把精力集中在有趣的爭(zhēng)議和公開(kāi)的問(wèn)題而不是誤解上,就讓我們一起來(lái)破解最常見(jiàn)的神話(注:本文所說(shuō)的「神話」和傳說(shuō)中的「神」無(wú)關(guān)(如果人工智能不會(huì)成為我們的神的話),而是指毫無(wú)根據(jù)的猜測(cè)和論斷)。
時(shí)間表的神話
關(guān)于時(shí)間表的第一個(gè)神話:機(jī)器極大超越人類(lèi)水平智能需要花多長(zhǎng)時(shí)間?關(guān)于這個(gè)問(wèn)題的一個(gè)常見(jiàn)錯(cuò)誤概念是,我們認(rèn)為機(jī)器超過(guò)人類(lèi)智能是毋庸置疑的。
我們知道的一個(gè)流行的神話是本世紀(jì)內(nèi)會(huì)有超人類(lèi)人工智能出現(xiàn)。事實(shí)上,歷史充滿(mǎn)了技術(shù)的過(guò)度炒作。那些對(duì)我們?cè)S下承諾的現(xiàn)在會(huì)有的飛行汽車(chē)和聚變電站在哪里呢?過(guò)去人工智能也是被反復(fù)夸大,甚至該領(lǐng)域的一些創(chuàng)始人也在夸大。例如,John MaCarthy (他造出了「人工智能」這個(gè)詞)、Marvin Minsky、Nathaniel Rochester 和 Claude Shannon 寫(xiě)過(guò)一個(gè)過(guò)于樂(lè)觀的預(yù)測(cè):「我們提出一個(gè)達(dá)特茅斯學(xué)院在1956 年夏季做出的兩個(gè)月,十個(gè)人的人工智能研究[...],我們需要作出嘗試,找到如何讓機(jī)器使用語(yǔ)言形成抽象和概念以解決目前只有人類(lèi)才能解決的問(wèn)題的方法,并讓機(jī)器能自我改進(jìn)。我們認(rèn)為如果能精心挑選出一個(gè)科學(xué)家團(tuán)隊(duì),合作一個(gè)夏天,這個(gè)問(wèn)題就能有重大突破。」
另一方面,一個(gè)流行的反神話是我們知道本世紀(jì)內(nèi)不會(huì)出現(xiàn)超人類(lèi)的人工智能。研究者們已經(jīng)從各個(gè)方面估算了超人類(lèi)人工智能離我們還有多遠(yuǎn),但是由于技術(shù)懷疑論者之前很多關(guān)于技術(shù)的悲觀語(yǔ)言都沒(méi)有實(shí)現(xiàn),所以我們還是無(wú)法斷定本世紀(jì)內(nèi)不會(huì)有超人類(lèi)人工智能。例如,Ernest Rutherford(可以說(shuō)是這個(gè)時(shí)代最偉大的核物理學(xué)家)在 1933 年曾說(shuō)過(guò)———在西拉德發(fā)明的核反應(yīng)鏈前的 24 小時(shí)內(nèi)—— 所謂核能就是「鏡中花水中月」。還有在1956年時(shí),皇家天文學(xué)家( Astronomer Royal )Richard Woolley 把星際航行稱(chēng)為「完全是胡扯」。這種神話最極端的形式是超人類(lèi)智能永遠(yuǎn)不會(huì)出現(xiàn),因?yàn)樗谖锢韺W(xué)上是不可能的。然而,物理學(xué)家知道大腦由夸克和電子排列構(gòu)成,運(yùn)作起來(lái)就像一個(gè)強(qiáng)大的計(jì)算機(jī)。也知道沒(méi)有物理定律可以阻止我們建立更智能的夸克斑點(diǎn)(quark blobs)。
還有一些調(diào)查問(wèn)了研究者們按至少 50 % 的概率算,人類(lèi)水平的人工智能距離我們還多少年。所有的這些調(diào)查都有同樣的結(jié)論:世界頂級(jí)專(zhuān)家們的意見(jiàn)不一致,所以我們根本不知道答案。例如,在 2015 波多黎各人工智能大會(huì)(2015 Puerto Rico AI conference)上的一次人工智能研究者意向調(diào)查中 ,平均(中位數(shù))的答案是 2045 年,但一些研究人員猜測(cè)需要幾百年或更長(zhǎng)時(shí)間。
還有一個(gè)神話是,擔(dān)心人工智能的人認(rèn)為要不了幾年,上述預(yù)言都能實(shí)現(xiàn)。但事實(shí)上,根據(jù)記錄大多數(shù)擔(dān)心超人類(lèi)人工智能的人認(rèn)為至少還需要幾十年才能實(shí)現(xiàn)這些預(yù)言。但是這些人強(qiáng)調(diào)只要我們不是 100% 肯定本世紀(jì)不會(huì)出現(xiàn)超人類(lèi)人工智能,最好還是要為意外啟動(dòng)安全研究。很多涉及人類(lèi)水平人工智能的安全問(wèn)題都很棘手,需要幾十年才能解決。所以,現(xiàn)在就要開(kāi)始研究安全技術(shù),而不是等到一些程序員灌了幾瓶紅牛決定開(kāi)啟這些可能對(duì)人造成巨大傷害的人工智能的前一晚才開(kāi)始著手研究安全措施。
爭(zhēng)議的神話
另一個(gè)常見(jiàn)的錯(cuò)誤概念是擔(dān)心人工智能并擁護(hù)人工智能安全研究的人都是那些對(duì)人工智能不甚了解的盧德派。當(dāng)標(biāo)準(zhǔn)人工智能教科書(shū)(人工智能:一個(gè)現(xiàn)代化的方法, Artificial Intelligence: A Modern Approach)作者 Stuart Russell 在波多黎各人工智能大會(huì)演講中提到這個(gè)觀點(diǎn)時(shí),引來(lái)了下面觀眾的放聲大笑。支持人工智能安全研究本身就有巨大爭(zhēng)議。事實(shí)上,為了支持一個(gè)適度投資人工智能安全研究,不需要讓人們相信人工智能會(huì)帶來(lái)高風(fēng)險(xiǎn),只要讓他們知道安全研究不是可忽略的就行了。就像如果你想讓一戶(hù)家庭購(gòu)買(mǎi)家庭保險(xiǎn),只要向他們證明房屋火災(zāi)不是不可能發(fā)生的就行了。
也許是媒體讓人工智能安全 爭(zhēng)論看起來(lái)比現(xiàn)實(shí)更加具有爭(zhēng)議。畢竟,恐懼是可以賣(mài)錢(qián)的,用斷章取義的引用來(lái)宣告厄運(yùn)迫在眉睫的文章能產(chǎn)生比平衡各方觀點(diǎn)的客觀性言論更多的點(diǎn)擊。結(jié)果是,從媒體文章的引用中獲取觀點(diǎn)的兩個(gè)人只知道對(duì)方的觀點(diǎn)很可能是想法上的分歧比較多。比如,一個(gè)技術(shù)懷疑論者只看了英國(guó)某小報(bào)報(bào)道的比爾蓋茨的某些觀點(diǎn)就錯(cuò)誤的認(rèn)為蓋茨相信超級(jí)智能迫在眉睫。類(lèi)似的還有,支持有益的人工智能運(yùn)動(dòng)的人可能就只知道吳恩達(dá)說(shuō)過(guò)自己不擔(dān)心人工智能就像不擔(dān)心火星人口過(guò)剩,這樣的人或許會(huì)錯(cuò)誤地認(rèn)為吳恩達(dá)毫不關(guān)心人工智能安全問(wèn)題,但是事實(shí)是,吳恩達(dá)關(guān)心這個(gè)問(wèn)題。問(wèn)題的癥結(jié)在于因?yàn)閰嵌鬟_(dá)的時(shí)間表估算的太長(zhǎng)了,所以相較于長(zhǎng)期問(wèn)題,他很自然地傾向于優(yōu)先考慮短期內(nèi)人工智能面臨的挑戰(zhàn)。
關(guān)于超人類(lèi)人工智能風(fēng)險(xiǎn)的神話
「Stephen Hawking 警告機(jī)器人的崛起可能是人類(lèi)的災(zāi)難?!箍吹竭@樣的標(biāo)題,很多人工智能研究者都會(huì)翻白眼。很多人都記不清看過(guò)多少類(lèi)似的文章了。通常來(lái)說(shuō),這些文章都都會(huì)描述到一個(gè)拿著武器面目可憎的機(jī)器人,并建議我們要擔(dān)心機(jī)器人崛起后會(huì)殺了人類(lèi),因?yàn)樗鼈冮_(kāi)始有了意識(shí)變得邪惡起來(lái)。樂(lè)觀點(diǎn)說(shuō),這類(lèi)文章著實(shí)讓人印象深刻,因?yàn)樗麄兒?jiǎn)明扼要地總結(jié)了人工智能研究者不會(huì)擔(dān)心的情景,這個(gè)情景結(jié)合了三個(gè)獨(dú)立的錯(cuò)誤概念:對(duì)意識(shí)、邪惡和機(jī)器人的憂慮。
如果你沿路開(kāi)著車(chē),你會(huì)有一個(gè)關(guān)于顏色、聲音等的主觀經(jīng)驗(yàn)。但是一輛自動(dòng)駕駛汽車(chē)會(huì)有主觀經(jīng)驗(yàn)嗎?它的感受就是一個(gè)自動(dòng)駕駛汽車(chē)的感受嗎?即便關(guān)于意識(shí)在自我權(quán)利的神秘非常有趣,它也與人工智能風(fēng)險(xiǎn)沒(méi)有多大關(guān)系。如果你被一輛無(wú)人駕駛車(chē)撞了,那么它是否有主觀意識(shí)對(duì)你來(lái)說(shuō)意義也不大。同樣地,會(huì)影響我們?nèi)祟?lèi)的是超級(jí)智能人工智能會(huì)做什么,而不是它的主觀感受如何。
害怕機(jī)器會(huì)變成魔鬼是另一種不相干的憂慮。真正需要擔(dān)心的不是它的惡意,而是能力。定義中的超級(jí)智能人工智能擅長(zhǎng)達(dá)到任何目標(biāo),所以我們需要確保的是讓它的目標(biāo)始終與我們的目標(biāo)一致。人類(lèi)一般不討厭螞蟻,但是我們比它們聰明太多,所以如果我們想建一座水電站大壩時(shí)有一座蟻山在那里,那就對(duì)螞蟻來(lái)說(shuō)太糟了。有益的人工智能運(yùn)動(dòng)的目標(biāo)是避免將人類(lèi)置于螞蟻的地位。
對(duì)意識(shí)概念的誤解與機(jī)器沒(méi)有目標(biāo)的神話有關(guān)。機(jī)器顯然能有狹義上的目標(biāo)——做出目標(biāo)導(dǎo)向的行為,比如,熱跟蹤導(dǎo)彈被最簡(jiǎn)潔地解釋為以擊中目標(biāo)為目標(biāo)。如果你感到被一臺(tái)目標(biāo)和你不一致的機(jī)器威脅了,而給你帶來(lái)的麻煩的正好是狹義上的目標(biāo),不是機(jī)器是否有意識(shí),也不是它感受到的目標(biāo)感。如果熱跟蹤導(dǎo)彈正在追蹤你,你大概不會(huì)辯解:「我不擔(dān)心,因?yàn)闄C(jī)器沒(méi)有目標(biāo)!」
我同情 Rodney Brooks 和其他被聳人聽(tīng)聞的小報(bào)妖魔化的機(jī)器人先驅(qū),這對(duì)他們不公平,因?yàn)橐恍┯浾呖雌饋?lái)總是盯著機(jī)器人不放,在文章中把機(jī)器人描繪成長(zhǎng)著紅色眼睛面目猙獰的金屬怪獸。事實(shí)上,有益的人工智能運(yùn)動(dòng)主要關(guān)心不是機(jī)器人而是智能本身:尤其是與我們目標(biāo)不一致的智能。給我們帶來(lái)麻煩與我們目標(biāo)不一致的超人類(lèi)人工智能不需要機(jī)器人身體,僅僅是一個(gè)互聯(lián)網(wǎng)連接或許就能智勝金融市場(chǎng),在發(fā)明上超越人類(lèi)研究員、操縱人類(lèi)領(lǐng)袖、甚至設(shè)計(jì)出我們無(wú)法理解的武器。即便造不出一個(gè)這樣的實(shí)體機(jī)器人,一個(gè)超級(jí)智能和超級(jí)富有的人工智能也可以很容易地收買(mǎi)或操縱許多人,讓他們?cè)诓恢挥X(jué)中按照它的意思做事。
這個(gè)機(jī)器人誤解還與機(jī)器不能控制人類(lèi)的神話有關(guān)。智能可以實(shí)現(xiàn)控制:人類(lèi)控制老虎不是因?yàn)槲覀兏鼜?qiáng)壯,而是因?yàn)槲覀兏斆?。這意味著,如果我們放棄人類(lèi)作為地球上最聰明物種的地位,我們也就可能放棄了控制權(quán)。
有趣的爭(zhēng)議
不要在上述錯(cuò)誤概念上浪費(fèi)時(shí)間了,讓我們關(guān)注那些專(zhuān)家都在爭(zhēng)論的真正的有趣的爭(zhēng)議。你想要什么樣的未來(lái)?我們應(yīng)該發(fā)展致命的自動(dòng)武器嗎?你想在工作自動(dòng)化中發(fā)生什么?你會(huì)給今天的孩子們什么樣的職業(yè)建議?你喜歡新的工作取代舊的,還是一個(gè)沒(méi)有工作的社會(huì),每個(gè)人都享受休閑和機(jī)器生產(chǎn)財(cái)富的生活?我們會(huì)控制智能機(jī)器嗎,還是它們會(huì)控制我們?你希望它會(huì)是什么樣的,以及我們?nèi)绾尾拍茏屛磥?lái)變成你期望的那樣?歡迎一起討論這些問(wèn)題!