人類放棄責任,才是最危險的。
這可能是英國著名導演克里斯托弗·諾蘭,發佈新片最好的時機,沒有之一。
在《信條》(Tenet)因為新冠疫情「折戟」之後,導演的新片《奧本海默》(Oppenheimer)即將於一個月後開畫。
這部講述「原子彈之父」羅伯特·奧本海默生平的影片,聚焦於一個富有魅力和智慧的男人,如何率領「地球上最聰明的大腦」,攻克物理學難題的同時,發明了世界上最危險的武器的故事。
諾蘭及其同輩人成長中對於「核威脅」的恐懼,在當下有了新的迴響。
只不過,這次原子彈有了新的名字,叫 AI。
ChatGPT 技術讓人工智慧再次大火,而對於新技術的恐懼和興奮呈同樣態勢。數百位 AI 專家發佈聯名信,聲明人工智慧可能帶來的「滅絕人類」的威脅。
連線 Wired 近期刊載了克里斯托弗·諾蘭導演的專訪長文,導演在其中闡述了對於當下熱議的「AI 威脅」的看法,以及人工智慧和 70 年前核威脅的比較。
曾經在《星際穿越》中用愛拯救人類的諾蘭卻認為,AI 最大的威脅,是人類有一種本能的慾望,希望將其造物捧上神壇,進而擺脫自己需要承擔的一切責任。
導演一針見血地指出,相對於奧本海默一輩科學家在科學與當權者之間的掙扎和反抗,當下 AI 從業者的「求監管」,是「虛偽」的。
同時,作為執著於膠片的老派電影人,諾蘭對於生成式 AI 在影視創作領域的發展抱有期待,但自己想做的,還是「要給演員一個真實的氛圍和環境」。
「人類最大的危險,是放棄責任。」諾蘭在採訪中說道。
標題:How Christopher Nolan Learned to Stop Worrying and Love AI
連結:
https://www.wired.com/story/christopher-nolan-oppenheimer-ai-apocalypse
作者:MARIA STRESHINSKY
編譯:靖宇
以下為採訪對話原文,編者進行了不改變原意的修整:
01
毀滅世界,原子彈第一
問:感覺你和艾瑪(諾蘭的妻子,他一直以來的製片人)的工作,從某種程度上,一直在為《奧本海默》做準備。
諾蘭:這就是我對這部電影的感覺。
我對所做的每個項目都有這種感覺。因為我試圖在以前所學的基礎上繼續前進。每當你完成一部電影,都會有一些問題懸而未決。因此,在下一部電影中,你會把留下來的問題撿起來。
在《奧本海默》中,非常有字面意義,《信條》(Tenet,諾蘭的前一部電影)中就提到了奧本海默。
問:所以他在你的腦海中已經存在了一段時間。
諾蘭:奧本海默的故事已經伴隨我多年。這是一個令人難以置信的想法——有人試圖通過計算,來尋找理論和現實世界之間的關係,然後有一個非常小的可能性,他們將摧毀整個世界。然而,他們還是按下了按鈕。
問:非常戲劇性。
諾蘭:我是說,這簡直是最戲劇性的時刻,在整個人類歷史上來看。
問:很多人可能不知道,當我們在 1945 年投下炸彈時,這不僅是一個可怕的時刻,也正是這個時刻,讓人們了解到人類現在擁有了可以消滅整個人類的能力。
諾蘭:我對奧本海默的感覺是,很多人知道這個名字,知道他與原子彈有關,在美國曆史的關係中還發生了一些複雜的事情,此外就沒了。
坦率地說,對我來說,這就是我的電影的理想觀眾。那些什麼都不知道的人將會得到最瘋狂的體驗。因為這是個瘋狂的故事。
問:你是指他的個人故事?
諾蘭:觀眾應該了解,因為他是有史以來最重要的人之一。
諾蘭御用演員希裡安·墨菲在片中扮演奧本海默|豆瓣電影
問:電影裡有一句臺詞,有人對奧本海默說,你可以讓任何人做任何事。類似這樣的話。他是一個出色的管理者,對一切瞭如指掌,在那個房間裡,有些科學家在做 X,而在另一個房間裡,那些科學家在做 Y,他是一個能把這一切記在腦子裡的人。
諾蘭:他知道如何通過他的角色的戲劇性來激勵人們,投射他自己的光輝。他給所有的科學家、官員,每個人一個聚焦的目標。
問:他擁有真正的魅力。
諾蘭:魅力,這是個完美的詞。它讓一切得以成形,這部電影經常涉及到這一點,正是他的魅力,讓這些學者、這些理論家能夠走到一起,用他們自己的雙手建立起如此巨大、如此重要的東西。這是個奇蹟。
問:談到建立一個巨大的東西,我最近在溫哥華的 TED 會議上,最有趣的會議之一是一系列關於生成式人工智慧的談話。很多發言者都提到了原子彈、核武器。最後一位發言者是一位技術專家——他談到了人工智慧不可避免的武器化。
演講結束時他說,維持世界秩序的唯一途徑是擁有更好的人工智慧武器。那是一種威懾。這聽起來很像人們對原子彈的看法。感覺你的電影找到了最合適的發行時機。
諾蘭:我認為這種關係是一個有趣的問題。這是不一樣的。但這是最好的比喻——這就是為什麼我在《信條》中使用它——不假思索地向世界釋放一項新技術的危險性。這是一個警告性的故事。我們可以從中吸取教訓。
話雖如此,我確實相信,就改變和危及世界的技術而言,原子彈是獨一無二的。
問:而且這些技術的起源是不一樣的?
諾蘭:有根本的區別。
研究原子分裂的科學家們一直試圖向政府解釋:(核能)是自然界的一個事實,來源於上帝、或任何創世者。這只是關於自然的知識,它不可避免地將會發生。沒有人可以隱藏它,我們沒有創造,也不擁有它。他們是這麼看的。
問:換句話說,他們覺得自己只是揭示了已經存在的東西。
諾蘭:而我認為你很難對人工智慧提出這樣的論點。當然,肯定有人會這樣做。
問:你一定是在炸彈的陰影下長大的。
我是在 20 世紀 80 年代的英國長大的,我們有一系列核裁軍之類的運動,人們非常、非常清楚核武器的威脅。當我 13 歲時,我和朋友們相信,我們最終會在核災難中死去。
問:但你們沒有,世界在繼續前進。
有一天,我和史蒂文·史匹柏談起這個問題,他是在 60 年代古巴導彈危機的威脅下長大的。一樣一樣的。
在人類歷史上,有些時候,核戰爭的危險對我們來說是如此的觸手可及、觸目驚心,以至於我們對它非常了解。當然,我們也只能擔心這麼久,然後繼續前進,開始擔心其他事情。問題是,危險實際上並沒有消失。
問:對。我的意思是,我覺得一個月前,我們都在擔心某些國家可能真的會使用核武器。
諾蘭:我記得 80 年代的情況是,對核戰爭的恐懼已經退去,轉而對環境破壞的恐懼。這幾乎就像人類無法對單一一種威脅保持長時間的恐懼,我們與恐懼有一種複雜的關係。
是的,某些國家一直在利用這種末日威脅和這種恐懼來搖旗吶喊。這讓人非常不安。
導演諾蘭工作照|環球影業
02
將 AI 捧上神壇,才最危險
問:和人工智慧末日的威脅一樣讓人不安?
諾蘭:好吧,人工智慧在武器系統方面的增長,以及它將產生的問題在很多年前就已經非常明顯,很少有記者費心去寫它。現在有一個聊天機器人可以為當地報紙寫一篇文章,突然就成了一個危機。
問:我們這些做媒體的人,多年來一直在這樣做。盲目追求。我們中的一些人正在寫關於人工智慧的文章,因為它可以使我們失去工作。
諾蘭:這就是問題的一部分。對我來說,人工智慧是一個非常簡單的問題,這就像演算法這個詞。我們看到公司使用演算法,現在是人工智慧,作為逃避其行為責任的一種手段。
問:請多解釋兩句。
諾蘭:如果我們認可人工智慧是全能的觀點,我們就是認可它可以減輕人們對其行為的責任——在軍事上、社會經濟上等等。
人工智慧最大的危險在於,我們將這些神一樣的特性歸於它,從而讓我們自己擺脫了困境。
我不知道這其中的神話基礎是什麼,但縱觀歷史,人類有這種傾向,即創造虛假的偶像,以我們自己的形象塑造一些東西,然後說我們有神一樣的力量,因為我們做出了這些東西。
問:這感覺非常,非常正確。就像我們正處於那個臨界點。
諾蘭:正是如此。
問:有了這些大型的語言模型,機器甚至下一步可能開始自學。
諾蘭:洛杉磯時報上有一篇關於 ChatGPT 和 OpenAI 的有趣文章。它基本上 ChatGPT 是一個銷售手段,OpenAI 現在是一傢俬人公司。他們有世界上最偉大的銷售機器,而這是一個非常危險的東西。也許我們不應該推向大眾,因為現在每個人都想要 AI 助手了。
這並不意味著這裡沒有真正的危險,因為我覺得有。但我個人,這只是我的觀點,我認為危險在於放棄責任。
問:人們一直說需要有一個國際機構來監管 AI。
諾蘭:但這是科技公司最古老的政治伎倆。對吧?這就是,你知道,SBF 與 FTX 做的事(加密幣交易所崩盤醜聞);祖克柏多年來一直要求被監管。因為他們知道,我們選出來的官僚,根本搞不清這些問題。
問:正如我們從國會聽證會上看到的那樣?
諾蘭:他們又能說什麼呢?我的意思是,這是非常專業的東西,當權者對創作者和奧本海默——讓我還是帶回到奧本海默。
奧本海默的問題是,他非常看重戰後科學家的作用——他們作為專家,必須弄清楚如何控制核力量。但當你看到發生在他身上的事情時,你就會明白,那是永遠不會被允許發生的。
這是科學和當權者之間非常複雜的關係,它從未像奧本海默的故事那樣被殘酷地暴露出來。我認為可以從中吸取各種教訓。
奧本海默同樣需要周旋於當權者和科學之間|Total Film
問:比如說?
諾蘭:所以他試圖從體制內開展工作,而不是轉身就說,你知道,我們需要的是愛,或者有的沒的。他的方法非常實際,但還是被擊垮了。這是非常複雜的,我認為現在的這些「發明家」,他們說「我們需要被監管」是非常虛偽的。
問:奧本海默希望科學能夠被分享。
諾蘭:他使用的是坦誠(Condor)這個詞。坦誠。
問:他的想法似乎隨著氫彈的出現而發生了變化?
諾蘭:不,他也相信氫彈的事。這事有點意思,因為在某種程度上,有點劇透。但在另一個方面,那是歷史,你能Google搜尋。
在這個重要時刻,隨著氫彈計劃的推進,他開始發表演講,他說,「我希望我能告訴你我所知道的。我不能。如果你知道我所知道的,你會明白,我們都必須分享資訊。本質上講,這是我們避免毀滅世界的唯一途徑。」
所以坦率是他認為最實際的手段。他認為聯合國在未來是一個強大的機構,有真正的行動能力。他認為對全球對原子能的控制,才是確保世界和平的唯一途徑。顯然,這並沒有發生。
問:他沒有預見到現在正在發生的事情,民主國家的緩慢衰落。
諾蘭:我認為他根本沒看到這一點,當時還是一個非常樂觀的時刻。
問:這就是為什麼要有一個世界性的人工智慧管理機構。
諾蘭:對。但這是與拒絕受地域限制的科技公司打交道時的問題。
從制度上講,科技公司被鼓勵、並被允許規避政府監管。這已經成為一種「道德觀」。
順便說一下,這把我弄的好像認為矽谷很邪惡,所有這些人都很可怕。我不這麼認為。這只是體制(System),它就是這麼運行的。
問:在安全問題層面,核武器的製造需要特定元素,但 AI 沒有這個限制。
諾蘭:在第二次世界大戰期間,英國的核彈計劃是非常複雜的。他們有很多偉大的科學家。但邱吉爾政府意識到,他們只是沒有足夠的資源。所以他們把他們的一切都給了美國人。他們說,你們有體量,遠離前線有,有工業基礎。
在我的研究中,我讀到一個統計數字,關於參與制造第一顆原子彈的美國人的數量——大概在 50 萬左右。數家公司參與,這是一個巨大的物理過程,這就是為什麼到今天,一個國家偷偷做核試驗很容易被發現。因此,有一些事情給我們一點保證,這個過程可以被管理。
而我認為這些限制,沒一個適用於人工智慧。
問:對,確實不使用於 AI——特別是當我們所談論的人工智慧的一些東西是一種「更軟」的威脅。飛速蔓延的虛假資訊,技術上的失業。
諾蘭:確實,但我不太——我覺得人工智慧仍然可以成為非常強大的工具。我對此持樂觀態度,我真的很樂觀。
但我們必須把它看作是一種工具,揮舞它的人仍然必須保持對揮舞該工具的責任。如果我們賦予人工智慧以人類的地位,就像我們在某些時候對公司所做的那樣,那麼是的,我們將有巨大的問題。
03
AI 很好,但堅持傳統
問:你是否看到人工智慧中的美妙之處,特別是在電影製作方面?
諾蘭:哦,當然。整個機器學習應用於深度偽造技術(Deepfake),這是在視覺效果和音訊方面的一個非凡的進步。從長遠來看,在環境營造方面,例如造出一扇門或者窗子。如果將事物外觀、事物的反光等等大量資料匯成資料庫,它將是非常強大的工具。
問:你會用 AI 去創作嗎?
諾蘭:我是非常老派的「模擬」(Analog)電影人。我用膠片拍攝,試圖給演員一個完整的現實。
我對技術的立場,就其與我的工作的關係而言,是我想把技術用在它最好的地方。例如,如果我們做一個特技,一個危險的特技。你可以用更顯眼的威壓來做,然後再後期抹掉,類似這樣的事情。
問:意思是這將提高視覺效果的便利性和效率。
諾蘭:這不是空手套白狼,它是從一個更詳細、更資料驅動的想法出發的。它可能最終打破動畫和攝影之間的屏障,因為它是一個混合體。
如果你告訴一個藝術家,比如說,畫一張宇航員的照片,他們是根據記憶或參考資料來進行發明。有了人工智慧,這是不同的方法,你實際上是在使用整個圖像的歷史。
問:使用真實的圖像。
諾蘭:使用真實的圖像,但以一種完全的、根本性的重建方式——這當然會引起重大的藝術家版權問題,而這必須得到妥善處理。
影片試圖還原奧本海默和愛因斯坦的交流場面|環球影業
問:讓我們回到科學和你的電影上來。在你客串編輯的 2014 年 12 月的《WIRED》雜誌中,有一句話,你說:「講故事和科學方法之間的關係讓我著迷。這並不是真的關於智力上的理解。那是一種把握某種事物的感覺」。跟我說說你對科學的熱愛吧。
諾蘭:嗯,我一直對天文學和物理學問題感興趣。我在《星際穿越》中探索了這個愛好。當我弟弟(喬納森·諾蘭)寫劇本時,他會看愛因斯坦的思想實驗,他發現其中一些實驗有一種特別的憂鬱感,而那都是與時間中的部分有關的。
比如,被分開的雙胞胎,一個被帶走回來後,另一個長大了一些,你知道嗎?愛因斯坦在思考物理學,和你如何做這些思想實驗,你如何構思這些想法,有非常相同的「文學性」(literary quality)。物理學家需要的視覺化過程與文學創作沒什麼不同。
問:你在電影的剪輯階段有這樣的感覺嗎?
諾蘭:我在電影製作的每個階段都有這種感覺。我的很多工作是試圖表達對事物形狀的直覺和感覺。這可能很困難,也很複雜。
問:我發現,如果我正在創作一個故事,但我不知道結構、流程,那就有問題了。我無法以一種有意義的方式談論這個作品。
諾蘭:我以一種非常地理或幾何學角度來思考結構和模式。多年來,我試圖採用一種從頭開始的結構方法,但最終它是一個非常本能的過程:這種感覺是否有一個敘事的形狀,以及它是如何形成的?我很著迷地意識到,物理學家進行著非常類似的過程。真的很有趣。
問:也許這是對《星際穿越》的致敬,但物理學家似乎總是如此深愛物理學。
諾蘭:我熱衷於追求真理,熱愛科學方法。我討厭看到它被媒體中的科學家或代表科學家發言的媒體所歪曲。純粹的科學方法,以及科學不斷尋求自我反駁的想法,讓它比宗教或者其他任何東西,都更能提升人類的思維。
問:在這次採訪之前,我和我母親一起看了你的電影。她感覺你的電影可能傳遞一種非常反消極主義的資訊。《敦刻爾克》、《星際穿越》、《蝙蝠俠》。或者,這是樂觀主義?
諾蘭:《盜夢空間》的結尾,正是如此。有人對那個結局有一種虛無主義的觀點,對吧?但同時,他也向前看了,和他的孩子們在一起。這種模糊性不是一種情感上的模糊性。對觀眾來說,這是一種智力上的模糊。
有趣的是,我認為《盜夢空間》和《奧本海默》的結局之間,有一種有意思的關係可以探討。奧本海默有一個複雜的結局、複雜的感情。
問:早期觀眾的反應如何?
諾蘭:有些人離開電影時處於絕對崩潰狀態。他們說不出話來。那些存在於歷史和事實層面的恐懼,電影都有表現。但對人物的愛,對關係的愛,和我之前所有的作品一樣強烈。
導演在洛杉磯的家中,影片由其子拍攝|MAGNUS NOLAN
問:還有主題的複雜性。
諾蘭:奧本海默的故事,是所有不可能的問題的集合、不可能的倫理困境、悖論。他的故事中沒有簡單的答案,只有困難的問題,而這正是故事如此吸引人的原因。
我認為我們能夠在影片中找到很多值得樂觀的東西,但有這樣一個壓倒一切的大問題在上方懸著。我覺得有必要在結尾處提出一些問題,讓人們在腦中回味,並引發討論。
問:在原子彈投下之前和之後,奧本海默的腦子裡會想什麼?你認為在他會怎麼想?
諾蘭:答案就在影片中。我是以第一人稱寫這個劇本的。這是我對西里安(希裡安·墨菲,片中奧本海默飾演者)說的:你是觀眾的眼睛。他做到了。大部分的故事,我們都沒有超出他的經歷。這是我傳達這個問題答案的最好嘗試。
問:我對將看到完整作品這事有點緊張。
諾蘭:我想你可能要等很久才行。這是一種強烈的體驗,因為它是一個強烈的故事。我最近給一個電影製片人看,他說這是一部恐怖電影,我並不反對。
有趣的是,你之前用了虛無主義這個詞,我不認為我的作品能和虛無主義沾邊。但當我開始完成這部電影時,我開始感覺到這種顏色,在我的其他電影中沒有,純粹的黑暗。它就在那裡,這部電影與之抗爭。
問:會影響到你嗎?你睡得好嗎?
諾蘭:我現在睡得很好,完成製作時感到鬆了一口氣。但我非常喜歡看這部電影。我想當你看到這部電影時,你就會明白。被可怕的事情所吸引是一種複雜的感覺,你懂嗎?恐怖空間就是如此展開的。
問:你的孩子看過嗎?
諾蘭:是的。
問:他們以前知道關於奧本海默的事情嗎?
諾蘭:在我開始寫劇本時,我告訴我的一個兒子,他真的對我說:「但現在沒有人真正擔心這個問題了,核武器。」兩年後,他就不這麼說了。世界又變了。
這對我們所有人來說都是一個教訓,但對年輕人來說尤其如此。
世界變化很快。
*頭圖來源:MAGNUS NOLAN