文?| 周鑫雨
(相關(guān)資料圖)
編輯?| 鄧詠儀
在針對大模型的態(tài)度上,圖靈獎三巨頭已經(jīng)可見地分成了旗幟鮮明的兩個陣營:
Yoshua Bengio是悲觀派。在反對強于GPT-4能力的大模型研發(fā)的聯(lián)名信簽署名單中,Bengio赫然在列。而Yann?LeCun則更為樂觀。他不僅在社交平臺上公開反對叫停研究的做法,還將積極地進(jìn)行了不少有關(guān)AGI(通用人工智能)的假設(shè)研究。
但無論是GPT-4引發(fā)的聯(lián)名叫停運動,還是有關(guān)離職谷歌的決定,在圖靈三巨頭中,Goffrey Hinton都顯得格外低調(diào),未做任何公開表態(tài)。
Goffrey Hinton。圖源:智源
在中國首秀智源大會中,這位學(xué)者給觀眾上了一堂硬核的技術(shù)哲學(xué)課。
比起現(xiàn)下大模型已顯露的安全和倫理風(fēng)險,Hinton更關(guān)注超級智能(super-intelligence)時代下,人與機器的控制權(quán)搶奪問題。他認(rèn)為,人類很少去思考如何與比自身更智能的物種的交互方式。這就陷入了類似精英治理合法性的討論,不過在未來,“精英”可能并非人類,而成了人工智能。
不過,盡管尚未有面對超級智能控制人類的最優(yōu)解,Hinton認(rèn)為“人工智能”中的“人工”二字恰恰是人類的優(yōu)勢:這意味著智能物種并非通過進(jìn)化迭代而來,“人工”的特點讓它們不具備與人類競爭的天性。
在名為《通往智能的兩條路》的演講中,他提出了幾個重要觀點:
· 大語言模型通過成千上萬個計算機副本獲取知識,這就是大模型比人類更快學(xué)到更多知識的原因。
· 如果人類想讓數(shù)字智能更有效率,就需要允許它們創(chuàng)建子目標(biāo)。但相對地,設(shè)定清晰的子目標(biāo)意味著數(shù)字智能將獲取更多的權(quán)力和控制,從而使得目標(biāo)的實現(xiàn)更加容易。
· 一旦數(shù)字智能開始追求更多的控制權(quán),可能會通過控制人類來獲得更多權(quán)力。一旦人工智能掌握了“欺騙”技能,也就能輕易具備控制人類的能力。
字里行間,這位深度學(xué)習(xí)之父提醒大家居安思危:“我相信,超級智能比我想象的要近得多?!?/p>
以下是Hinton的演講整理(內(nèi)容由智源研究院提供,略經(jīng)36氪的整理編輯):
今天我要談?wù)摰氖俏业难芯?,它使我相信超級智能比我想象的更接近。所以我想要談?wù)搩蓚€問題,而我將幾乎完全專注于第一個問題,即人工神經(jīng)網(wǎng)絡(luò)是否很快會比真實的神經(jīng)網(wǎng)絡(luò)更聰明。正如我所說,我將描述引導(dǎo)我得出這一結(jié)論的研究。最后,我會簡要討論我們是否能控制超級智能人工智能,但這不是本次演講的重點。
通往智能的第一條路徑:硬件模擬
在傳統(tǒng)計算中,計算機被設(shè)計為精確遵循指令。我們可以在不同的物理硬件上運行完全相同的程序或相同的神經(jīng)網(wǎng)絡(luò),因為它們被設(shè)計為精確遵循指令。這意味著程序中的知識或神經(jīng)網(wǎng)絡(luò)的權(quán)重是永恒的,不依賴于任何特定的硬件。
然而,實現(xiàn)這種永恒性是有高成本的。我們必須以高功率運行晶體管,以使其以數(shù)字方式運作。我們無法充分利用硬件的豐富模擬和高度可變的特性。這就是數(shù)字計算機存在的原因。它們遵循指令的原因是因為它們被設(shè)計成讓我們先觀察問題,確定解決問題所需的步驟,然后告訴計算機執(zhí)行這些步驟的模式。
但現(xiàn)在情況發(fā)生了改變。我們現(xiàn)在有了一種不同的方法來讓計算機完成任務(wù),那就是從示例中學(xué)習(xí)。我們只需向計算機展示我們希望它們完成的任務(wù),由于如何讓計算機做你想要的事情的方式發(fā)生了改變,現(xiàn)在我們有可能要放棄計算機科學(xué)最基本的原則,即軟件應(yīng)該與硬件相分離。在放棄這個原則之前,讓我們簡要了解一下為什么它是一個好的原則。由于軟件與硬件的分離,我們可以在不同的硬件上運行相同的程序。我們還可以關(guān)注程序的特性,并對神經(jīng)網(wǎng)絡(luò)上的程序特性進(jìn)行研究,而不必?fù)?dān)心電子方面的問題。
這就是為什么計算機科學(xué)部門可以與電氣工程部門不同。如果我們放棄軟件和硬件的分離,我們就得到了我稱之為“有限計算”的東西。顯然它有很大的缺點,但也有一些巨大的優(yōu)勢。
有限計算。圖源:智源
為了這些優(yōu)勢,我開始研究有限計算,以便能夠以更低的能量運行大型語言模型等任務(wù)。特別是能夠使用更少的能量來訓(xùn)練它們,放棄永恒性的好處是放棄硬件和軟件的分離。我們可以獲得巨大的能量節(jié)約,因為我們可以使用非常低功率的模擬計算。這正是大腦正在做的。它確實有1位的數(shù)字計算,因為神經(jīng)元要么觸發(fā),要么不觸發(fā)。但大部分計算是模擬計算,并且可以以非常低功率完成。我們還可以獲得更便宜的硬件。目前的硬件必須以二維方式精確制造,但實際上我們可以使用三維生長硬件,因為我們不需要完全理解硬件的連通性或每個部分的工作原理。
顯然,要實現(xiàn)這一點需要大量的新納米技術(shù),或者也許是通過基因重組重新設(shè)計生物神經(jīng)元,因為生物神經(jīng)元已經(jīng)大致能夠?qū)崿F(xiàn)我們想要的功能。在我詳細(xì)介紹有限計算的所有缺點之前,我想給你舉一個例子,說明我們明顯可以通過使用模擬硬件更便宜地完成的計算任務(wù)。
如果您將神經(jīng)活動的向量與權(quán)重矩陣相乘,那就是神經(jīng)網(wǎng)絡(luò)的核心計算。這是它大部分工作所在之處。目前我們所做的是以非常高的功率驅(qū)動晶體管,以表示數(shù)字中的位數(shù)。然后,我們執(zhí)行O(n^2)的操作來將兩個n位數(shù)相乘。在計算機上可能只是一個操作,但在位操作上卻是n^2個操作。另一種選擇是將神經(jīng)活動實現(xiàn)為電壓,將權(quán)重實現(xiàn)為電導(dǎo)。然后,在單位時間內(nèi),電壓乘以電導(dǎo)會產(chǎn)生電荷,而電荷會相互疊加。
現(xiàn)在很明顯,您可以通過電導(dǎo)矩陣乘以電壓向量。這種方法在能量效率上要高得多。已經(jīng)存在以這種方式工作的芯片。不幸的是,人們接下來會嘗試使用模數(shù)轉(zhuǎn)換器將模擬答案轉(zhuǎn)換為數(shù)字形式,而這是非常昂貴的。如果可能的話,我們希望完全保持在模擬領(lǐng)域。但問題是,不同的硬件部件最終將計算出略有不同的結(jié)果。
有限計算的主要問題是,學(xué)習(xí)過程必須利用其運行的硬件部件的特定模擬特性,而我們不確切知道這些特性是什么。例如,人們不知道將輸入與神經(jīng)元的輸出相關(guān)聯(lián)的確切函數(shù),或者可能不知道連接性。這意味著我們無法使用反向傳播算法等方法來獲得梯度,因為反向傳播是前向傳遞的精確模型。
問題是,如果我們不能使用反向傳播,我們還能做些什么?因為我們現(xiàn)在非常依賴于反向傳播。這里有一個人們已經(jīng)討論了很多次的非常簡單和明顯的學(xué)習(xí)過程。
您對網(wǎng)絡(luò)中的每個權(quán)重生成一個小的隨機擾動向量。然后,您測量全局目標(biāo)函數(shù)的變化。在一小批示例上,然后通過擾動向量進(jìn)行永久性地更改權(quán)重,擾動向量的縮放因子為目標(biāo)函數(shù)的改善。如果目標(biāo)函數(shù)變得更糟,顯然您會朝相反的方向調(diào)整。這個算法的好處是,平均而言,它的行為與反向傳播相同。
因為平均而言,它遵循梯度。但它的問題在于方差非常高。當(dāng)您選擇一個隨機方向在權(quán)重空間中移動時,所產(chǎn)生的噪聲與網(wǎng)絡(luò)的規(guī)模非常不成比例。這意味著這種算法對于連接數(shù)較少的小網(wǎng)絡(luò)可能有效,但對于大型網(wǎng)絡(luò)來說效果不佳。
這里有一種方法效果要好得多。它仍然存在類似的問題,但比擾動權(quán)重要好得多,即擾動神經(jīng)元的活動。也就是說,您考慮對每個神經(jīng)元的總輸入進(jìn)行隨機擾動的向量。您觀察當(dāng)您在一小批示例上對其進(jìn)行隨機擾動時,目標(biāo)函數(shù)會發(fā)生什么變化,并獲得由此擾動導(dǎo)致的目標(biāo)函數(shù)差異。然后,您可以計算如何改變神經(jīng)元的每個傳入權(quán)重以遵循梯度。同樣,這只是梯度的隨機估計,但噪聲要比擾動權(quán)重小得多。這個算法足夠好以學(xué)習(xí)簡單的任務(wù),比如識別數(shù)字。如果您使用非常非常小的學(xué)習(xí)速率,它的行為就和反向傳播完全一樣,但速度要慢得多,因為您需要使用非常小的學(xué)習(xí)速率。如果您使用較大的學(xué)習(xí)速率,它會有噪聲,但對于類似MNIST的任務(wù)仍然可以很好地工作,但不能很好地擴展到大型神經(jīng)網(wǎng)絡(luò)。
要使其擴展,我們可以采取兩種方法。不是試圖找到適用于大型神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法,我們可以嘗試找到適用于小型神經(jīng)網(wǎng)絡(luò)的目標(biāo)函數(shù)。這里的思路是:我們想要訓(xùn)練一個大型神經(jīng)網(wǎng)絡(luò)的話,要做的是使用許多小的目標(biāo)函數(shù)來應(yīng)用于網(wǎng)絡(luò)的各個小部分。因此,每個小組神經(jīng)元都有自己的局部目標(biāo)函數(shù)?,F(xiàn)在,可以使用這種活動擾動算法來訓(xùn)練一個小型的多層神經(jīng)網(wǎng)絡(luò)。它的學(xué)習(xí)方式與反向傳播大致相同,但噪聲較大。然后通過使用許多更多的小型局部神經(jīng)元組,將其擴展到更大的網(wǎng)絡(luò)規(guī)模。
這引出了一個問題,即這些目標(biāo)函數(shù)是從哪里來的?一種可能性是在局部區(qū)域進(jìn)行無監(jiān)督學(xué)習(xí),即在圖像的每個層級上都有局部區(qū)域的表示,并使得每個局部區(qū)域在特定圖像上產(chǎn)生局部神經(jīng)網(wǎng)絡(luò)的輸出。然后嘗試使該局部神經(jīng)網(wǎng)絡(luò)的輸出與所有其他局部區(qū)域產(chǎn)生的平均表示一致。您試圖讓從局部區(qū)域提取的內(nèi)容與同一圖像中所有其他局部區(qū)域提取的內(nèi)容達(dá)成一致。因此,這是經(jīng)典的對比學(xué)習(xí)。同時,您還試圖與同一層級上其他圖像中提取的內(nèi)容產(chǎn)生不一致。
具體細(xì)節(jié)更加復(fù)雜,我們不會詳細(xì)介紹。但我們可以使這個算法運行得相當(dāng)好,其中每個層級的表示都有幾個隱藏層,您可以進(jìn)行非線性操作。各個層級使用活動擾動逐漸學(xué)習(xí),而較低層級沒有反向傳播。因此,它的能力不會像反向傳播那樣強大,因為它無法在許多層級上傳播反向信號。很多人投入了大量工作使這個算法能夠運行,并且已經(jīng)證明它可以相對良好地工作。它的效果可能比其他提出的在實際神經(jīng)網(wǎng)絡(luò)中可能有效的算法要好。但是要使它工作起來是有技巧的。它仍然不如反向傳播好。隨著網(wǎng)絡(luò)變得更深,它相對于反向傳播的效果會顯著下降。我沒有詳細(xì)介紹這種方法的所有細(xì)節(jié),因為您可以在一篇發(fā)表在ICLR上的論文和網(wǎng)絡(luò)上找到相關(guān)資料。
通往智能的第二條途徑:知識共享
現(xiàn)在,讓我談?wù)剬τ谟邢抻嬎愣缘牧硪粋€重大問題??偨Y(jié)一下,到目前為止,我們還沒有找到一個真正好用的學(xué)習(xí)算法,可以充分利用模擬屬性。但我們有一個可以接受的學(xué)習(xí)算法,足以很好地學(xué)習(xí)諸如小規(guī)模任務(wù)和一些較大的任務(wù)(如ImageNet),但效果并不太好。
有限計算的第二個重大問題是其有限性。當(dāng)特定的硬件設(shè)備失效時,所有學(xué)到的知識也會隨之喪失,因為知識和硬件細(xì)節(jié)密切相連。解決這個問題的最佳方案是在硬件設(shè)備失效之前,將知識從教師傳授給學(xué)生。
這就是我現(xiàn)在正在嘗試做的事情。教師向?qū)W生展示了對各種輸入的正確響應(yīng),然后學(xué)生試圖模仿教師的反應(yīng)。如果你觀察特朗普的推文是如何運作的,人們會因為他們認(rèn)為特朗普說的是虛假的東西而感到非常不滿。他們認(rèn)為他試圖描述事實,但事實上并非如此。特朗普所做的是對某種情況做出非常情緒化的回應(yīng)。這使得他的追隨者能夠根據(jù)這種情況來調(diào)整他們神經(jīng)網(wǎng)絡(luò)中的權(quán)重,以便對該情況給出相同的情緒化回應(yīng)。這與事實無關(guān),而是關(guān)于從一個邪教領(lǐng)袖到邪教追隨者獲取偏執(zhí)的運作反饋,但它確實非常有效。
如果我們考慮蒸餾方法的效果,以一個將圖像分類為大約一千個不重疊類別的代理為例。只需要大約10位的信息來確定正確答案。當(dāng)你在訓(xùn)練這個代理時,如果告訴它正確答案,你只對網(wǎng)絡(luò)的權(quán)重施加了10位的約束。這并不是很多的約束。但是現(xiàn)在假設(shè)我們訓(xùn)練一個代理來與教師對這1024個類別的響應(yīng)一致。假設(shè)這些概率中沒有微小的、不重要的部分,也就是獲得與該分布相同的概率分布,該分布包含1023個實數(shù),提供了數(shù)百倍的約束。不久前,我和杰夫·迪恩一起研究了蒸餾方法,并證明它可以非常有效地工作。
確保教師輸出概率中沒有很小值的方法是在訓(xùn)練學(xué)生時,將教師和學(xué)生都以高溫度參數(shù)運行。對于輸入softmax函數(shù)的低級概率值(即"low chips"),對教師的輸出進(jìn)行溫度參數(shù)縮放,以獲得更平滑的分布。在訓(xùn)練學(xué)生時,使用相同的溫度參數(shù)。需要注意的是,這種溫度參數(shù)調(diào)整僅在訓(xùn)練過程中使用,而不是在使用學(xué)生進(jìn)行推理時。
我只是想給你展示一個蒸餾的例子。這里有一些來自"M"數(shù)據(jù)集的圖像。我展示給你的是教師對各個類別的概率分配情況。
數(shù)據(jù)集。圖源:智源
當(dāng)你使用高溫度參數(shù)訓(xùn)練教師模型并觀察第一行時,它非常自信地認(rèn)為這是一個數(shù)字2。如果你看第二行,它也相當(dāng)自信地認(rèn)為這是一個數(shù)字2。但它同時認(rèn)為可能是一個數(shù)字3,或者可能是一個數(shù)字8。如果你仔細(xì)觀察,你會發(fā)現(xiàn)這個數(shù)字2與字母"h"相比更相似,而不是其他數(shù)字2。如果你看第三行,你會發(fā)現(xiàn)這個數(shù)字2非常像一個0。
而教師模型告訴學(xué)生,當(dāng)你看到那個圖像時,應(yīng)該輸出數(shù)字2,但你也可以在輸出中稍微增加對數(shù)字0的可能性。學(xué)生模型從這個例子中學(xué)到了比僅僅被告知那是一個數(shù)字2更多的信息。它正在學(xué)習(xí)與該圖像相似的其他特征。如果你看第四行,你會發(fā)現(xiàn)學(xué)生模型非常自信地認(rèn)為那是一個數(shù)字2,但它也認(rèn)為可能是一個數(shù)字1的可能性非常小。對于其他的數(shù)字2,它并不認(rèn)為可能是數(shù)字1,或許只有第一行有一點可能性。我已經(jīng)畫出了學(xué)生模型認(rèn)為可能是數(shù)字1的那個圖像,這樣你就能理解為什么它看起來像一個數(shù)字1,因為有時候數(shù)字1就是畫成那樣的。其中一個圖像在頂部有一條線,在底部有一條線。這種樣子的圖像是數(shù)字1的一種特點,數(shù)字1也有點類似。然后,如果你看最后一張圖,這是教師實際上判斷錯誤的一張圖,教師認(rèn)為它是數(shù)字5,但根據(jù)無盡標(biāo)簽,它實際上是數(shù)字2。
學(xué)生模型可以從教師的錯誤中學(xué)到很多東西。關(guān)于蒸餾的一個特殊屬性我特別喜歡,那就是當(dāng)你訓(xùn)練學(xué)生模型使用教師的概率時,你在訓(xùn)練學(xué)生模型以與教師相同的方式進(jìn)行概括,即通過給錯誤答案賦予較小的概率來進(jìn)行概括。
通常情況下,當(dāng)你訓(xùn)練一個模型時,你會努力讓它在訓(xùn)練數(shù)據(jù)上得到正確答案,并希望它能正確地推廣到測試數(shù)據(jù)上。你會盡量使模型不過于復(fù)雜,或者采取各種方法,希望它能正確地進(jìn)行推廣。但在這里,當(dāng)你訓(xùn)練學(xué)生模型時,你直接訓(xùn)練學(xué)生模型去進(jìn)行推廣,因為它被訓(xùn)練成以與教師相同的方式進(jìn)行推廣。顯然,你可以通過給出一個圖像的標(biāo)題而產(chǎn)生更豐富的輸出,然后訓(xùn)練教師和學(xué)生以相同的方式預(yù)測標(biāo)題中的單詞。
現(xiàn)在我想討論的是一個智能體群體如何共享知識。所以,我們不再考慮個體智能體,而是考慮在一個群體中分享知識,事實證明,社區(qū)內(nèi)部的知識共享方式?jīng)Q定了計算過程中的許多其他因素。
使用數(shù)字模型和數(shù)字智能,你可以擁有一大群使用完全相同權(quán)重的智能體,并以完全相同的方式使用這些權(quán)重。這意味著你可以讓這些智能體對不同的訓(xùn)練數(shù)據(jù)片段進(jìn)行觀察和計算,為權(quán)重計算出梯度,然后將它們的梯度進(jìn)行平均。
現(xiàn)在,每個模型都從它所觀察到的數(shù)據(jù)中學(xué)習(xí)。這意味著你可以通過讓不同的模型副本觀察不同的數(shù)據(jù)片段,獲得大量的數(shù)據(jù)觀察能力。它們可以通過共享梯度或權(quán)重來高效地分享所學(xué)的知識。如果你擁有一個擁有萬億個權(quán)重的模型,那意味著每次分享時你可以獲得數(shù)萬億比特的帶寬。但這樣做的代價是你必須擁有行為完全相同的數(shù)字智能體,并且它們以完全相同的方式使用權(quán)重。這在制造和運行方面都非常昂貴,無論是成本還是能源消耗方面。
一種替代權(quán)重共享的方法是使用蒸餾。如果數(shù)字模型具有不同的架構(gòu),我們已經(jīng)在數(shù)字模型中使用蒸餾。但是,如果你使用的是利用特定硬件的模擬特性的生物模型,那么你無法共享權(quán)重。
因此,你必須使用蒸餾來共享知識。這就是這次討論中所涉及的內(nèi)容。正如你所看到的,使用蒸餾來共享知識并不是很高效。用蒸餾來共享知識是困難的。使我產(chǎn)生了一些句子,你試著弄清楚如何改變你的權(quán)重,以便你也能產(chǎn)生相同的句子。但是與僅僅共享梯度相比,這種方式的帶寬要低得多。每個曾經(jīng)教過東西的人都希望能夠?qū)⒆约核赖臇|西直接傾囊而授給學(xué)生。那將是很好的。那大學(xué)就沒必要存在了。
但是我們的工作方式并不像那樣,因為我們是生物智能。我的權(quán)重對你沒有用處。到目前為止,我們可以說有兩種不同的計算方式,一種是數(shù)字計算,另一種是生物計算,后者利用了動物的特性。它們在不同代理之間有效共享知識的效率上存在很大差異。如果你觀察大型語言模型,它們使用數(shù)字計算和權(quán)重共享。
但是模型的每個副本,每個代理都以一種非常低效的方式從文檔中獲取知識。實際上,這是一種非常低效的蒸餾形式。它接收文檔,試圖預(yù)測下一個單詞。它沒有展示給它教師的概率分布,只是展示給它一個隨機的選擇,也就是文檔作者選擇的下一個單詞。因此它的帶寬非常低。這就是這些大型語言模型從人們那里學(xué)習(xí)的方式。每個副本通過蒸餾以非常低效的方式學(xué)習(xí),但是你有成千上萬個副本。這就是為什么它們可以比我們學(xué)習(xí)更多的原因。我相信這些大型語言模型比任何個體知道的東西多上千倍。
警惕超級智能對人類的控制
現(xiàn)在的問題是,如果這些數(shù)字智能體不再通過緩慢的蒸餾過程從我們這里學(xué)習(xí),而是直接從現(xiàn)實世界中學(xué)習(xí),將會發(fā)生什么?我必須說,盡管蒸餾的過程很慢,但當(dāng)它們從我們這里學(xué)習(xí)時,它們正在學(xué)習(xí)非常抽象的東西。在過去幾千年里,人類對世界的認(rèn)識有了很多進(jìn)展。現(xiàn)在,這些數(shù)字智能體正在利用的是我們能夠用語言表達(dá)出來的我們對世界所了解的一切。因此,它們可以捕捉到人類在過去幾千年中通過文件記錄的所有知識。但每個數(shù)字智能體的帶寬仍然相當(dāng)有限,因為它們是通過學(xué)習(xí)文檔來獲取知識的。
如果它們能夠通過建模視頻等無監(jiān)督的方式進(jìn)行學(xué)習(xí),那將是非常高效的。一旦我們找到了一種有效的方法來訓(xùn)練這些模型以建模視頻,它們將能夠從整個YouTube學(xué)習(xí),那是大量的數(shù)據(jù)。如果它們能夠操作物理世界,例如擁有機器手臂等,那也會有所幫助。
但我相信,一旦這些數(shù)字智能體開始這樣做,它們將能夠比人類學(xué)習(xí)更多,并且學(xué)習(xí)速度相當(dāng)快。這就涉及到我在開頭提到的另一個問題,即如果這些智能體變得比我們更聰明會發(fā)生什么。顯然,這個會議主要討論的就是這個問題。但我的主要觀點是,我認(rèn)為這些超級智能可能會比我過去所認(rèn)為的發(fā)生得更快。如果你想創(chuàng)造一個超級智能體,不良分子將會利用它們進(jìn)行操縱、選舉等活動。在美國和其他許多地方,他們已經(jīng)在利用它們進(jìn)行這些活動。而且還會用于贏得戰(zhàn)爭。
要使數(shù)字智能更高效,我們需要允許其制定一些目標(biāo)。然而,這里存在一個明顯的問題。存在一個非常明顯的子目標(biāo),對于幾乎任何你想要實現(xiàn)的事情都非常有幫助,那就是獲取更多權(quán)力、更多控制。擁有更多控制權(quán)使得實現(xiàn)目標(biāo)變得更容易。我發(fā)現(xiàn)很難想象我們?nèi)绾巫柚箶?shù)字智能為了實現(xiàn)其它目標(biāo)而努力獲取更多控制權(quán)。
一旦數(shù)字智能開始追求更多控制權(quán),我們可能會面臨更多的問題。比如,在使用物理氣隙隔絕的情況下,超級智能物種仍然可以輕易通過控制人類來獲得更多的權(quán)限。作為對比,人類很少去思考比自身更智能的物種,以及如何和這些物種交互的方式,在我的觀察中,這類人工智能已經(jīng)熟練的掌握了欺騙人類的動作,因為它可以通過閱讀小說,來學(xué)習(xí)欺騙他人的方式,而一旦人工智能具備了“欺騙”這個能力,也就具備前面提及的——輕易控制人類的能力。
所謂控制,舉個例子,如果你想入侵華盛頓的一座建筑物,不需要親自去那里,只需要欺騙人們,讓他們自認(rèn)為通過入侵該建筑物,就能實現(xiàn)拯救民主,最終實現(xiàn)你的目的(暗諷特朗普),這種操作令人感到害怕,因為我也不知道如何來阻止這樣的行為發(fā)生,所以我希望年輕一代的研究人員,可以找出一些更智能的辦法,來阻止這種通過欺騙實現(xiàn)控制的行為。
盡管人類在這個問題上目前還沒有什么好的解決方案,但好在這些智能物種都是人打造的,而非通過進(jìn)化迭代而來,這可能是人類目前具備的微弱優(yōu)勢,恰恰是因為沒有進(jìn)化能力,它們才不具備人類的競爭、攻擊性的特點。
我們可以做一些賦能,甚至是賦予人工智能一些倫理原則,只不過現(xiàn)在我仍然會感到緊張,因為到目前為止,我還想象不到更智能的事物,被一些反倒沒那么智能的事物所控制的例子。我打個比方,假設(shè)青蛙創(chuàng)造了人類,那么你認(rèn)為現(xiàn)在誰會占據(jù)主動權(quán),是人,還是青蛙?
歡迎交流
關(guān)鍵詞: