他山之石|“瀏覽器之父”馬克·安德森:為什么AI將拯救世界
Marc Andreessen是風(fēng)險投資公司Andreessen Horowitz的聯(lián)合創(chuàng)始人兼合伙人。他是一位創(chuàng)新者和創(chuàng)造者,是為數(shù)不多的開創(chuàng)超過十億人使用的軟件類別的人之一(網(wǎng)景瀏覽器),也是為數(shù)不多的建立數(shù)十億美元公司的人之一,被譽為“瀏覽器之父”。
本文翻譯自Why AI Will Save the World | Andreessen Horowitz (a16z.com)
人工智能的時代已經(jīng)到來,“大男孩們”(指對新科技一知半解的人)被嚇壞了。
幸運的是,我在這里帶來了好消息:人工智能不會摧毀世界,事實上可能會拯救它。
首先,簡要描述一下什么是人工智能:數(shù)學(xué)和軟件代碼的應(yīng)用,教計算機如何以類似于人們的方式理解、綜合和生成知識。人工智能是一種計算機程序,就像任何其他程序一樣——它運行、接受輸入、處理和生成輸出。人工智能的輸出在廣泛的領(lǐng)域都很有用,從編碼到醫(yī)學(xué),從法律到創(chuàng)意藝術(shù)。它由人擁有并由人控制,就像任何其他技術(shù)一樣。
對人工智能不是什么的簡短描述:殺手級軟件和機器人將栩栩如生,決定謀殺人類或以其他方式毀掉一切,就像你在電影中看到的那樣。
對人工智能可能是什么的更簡短的描述:一種讓我們關(guān)心的一切變得更好的方法。

為什么人工智能可以讓我們關(guān)心的一切變得更好
幾十年來和數(shù)千項研究中,社會科學(xué)最有效的核心結(jié)論是,人類智力使非常廣泛的生活結(jié)果變得更好。更聰明的人在幾乎所有活動領(lǐng)域都有更好的結(jié)果:學(xué)業(yè)成績、工作表現(xiàn)、職業(yè)狀況、收入、創(chuàng)造力、身體健康、長壽、學(xué)習(xí)新技能、管理復(fù)雜任務(wù)、領(lǐng)導(dǎo)力、創(chuàng)業(yè)成功、解決沖突、閱讀理解、財務(wù)決策、理解他人的觀點、創(chuàng)造性藝術(shù)、育兒結(jié)果和生活滿意度。
此外,人類智能是我們幾千年來用來創(chuàng)造我們今天生活的世界的杠桿:科學(xué)、技術(shù)、數(shù)學(xué)、物理、化學(xué)、醫(yī)學(xué)、能源、建筑、交通、通信、藝術(shù)、音樂、文化、哲學(xué)、倫理、道德。如果沒有在所有這些領(lǐng)域應(yīng)用情報,我們?nèi)詫⑸钤谀辔堇铮銖娋S持生計的農(nóng)業(yè)。相反,在過去的10年里,我們利用我們的智慧將我們的生活水平提高了4000倍。
人工智能為我們提供的是深刻增強人類智能的機會,使所有這些智能成果——以及許多其他成果,從創(chuàng)造新藥到解決氣候變化的方法,再到到達恒星的技術(shù)——從這里開始變得更好。
人工智能對人類智能的增強已經(jīng)開始——人工智能已經(jīng)以多種計算機控制系統(tǒng)的形式出現(xiàn)在我們身邊,現(xiàn)在正在通過像 ChatGPT 這樣的人工智能大語言模型迅速升級,并且會從這里迅速加速——如果我們允許的話。
在人工智能的新時代:
每個孩子都會有一個人工智能導(dǎo)師,他有無限的耐心,無限的同情心,無限的知識,無限的幫助。AI導(dǎo)師將陪伴在每個孩子成長的每一步,用無限愛的機器版本幫助他們最大限度地發(fā)揮自己的潛力。
每個人都會有一個人工智能助理/教練/導(dǎo)師/培訓(xùn)師/顧問/治療師,他有無限的耐心、無限的同情心、無限的知識、無限的幫助。人工智能助手將在生活中的所有機遇和挑戰(zhàn)中出現(xiàn),最大限度地提高每個人的成果。
每個科學(xué)家都將有一個人工智能助手/合作者/合作伙伴,這將大大擴展他們的科學(xué)研究和成就范圍。每個藝術(shù)家,每個工程師,每個商人,每個醫(yī)生,每個護理人員在他們的世界里都會有同樣的東西。
每個領(lǐng)導(dǎo)者——首席執(zhí)行官、政府官員、非營利組織總裁、體育教練、教師——都會有同樣的東西。領(lǐng)導(dǎo)者在他們所領(lǐng)導(dǎo)的人中做出更好的決策的放大效應(yīng)是巨大的,所以這種智力增強可能是最重要的。
整個經(jīng)濟的生產(chǎn)率增長將急劇加速,推動經(jīng)濟增長、創(chuàng)造新產(chǎn)業(yè)、創(chuàng)造新就業(yè)機會和工資增長,并導(dǎo)致全球物質(zhì)繁榮的新時代。
科學(xué)突破、新技術(shù)和藥物將大大擴展,因為人工智能將幫助我們進一步解碼自然法則,并為我們的利益收獲它們。
創(chuàng)意藝術(shù)將進入一個黃金時代,因為人工智能增強的藝術(shù)家、音樂家、作家和電影制作人比以往任何時候都更快、更大規(guī)模地實現(xiàn)他們的愿景。
我甚至認為人工智能將通過大幅降低戰(zhàn)時死亡率來改善戰(zhàn)爭。每場戰(zhàn)爭的特點都是在巨大的壓力下做出可怕的決定,而非常有限的人類領(lǐng)導(dǎo)人卻在信息極其有限的情況下做出可怕的決定。現(xiàn)在,軍事指揮官和政治領(lǐng)導(dǎo)人將擁有人工智能顧問,幫助他們做出更好的戰(zhàn)略和戰(zhàn)術(shù)決策,最大限度地減少風(fēng)險、錯誤和不必要的流血事件。
簡而言之,人們今天用他們的自然智能所做的任何事情都可以通過人工智能做得更好,我們將能夠接受沒有人工智能就無法應(yīng)對的新挑戰(zhàn),從治愈所有疾病到實現(xiàn)星際旅行。
這不僅僅是關(guān)于智力!也許人工智能最被低估的品質(zhì)是它的人性化程度。人工智能藝術(shù)為缺乏技術(shù)技能的人提供了創(chuàng)作和分享其藝術(shù)創(chuàng)意的自由。與善解人意的AI朋友交談確實可以提高他們應(yīng)對逆境的能力。人工智能醫(yī)療聊天機器人已經(jīng)比人類同行更具同理心。無限耐心和同情心的人工智能不會讓世界變得更嚴酷、更機械,而是讓世界變得更溫暖、更美好。
這里的風(fēng)險很高。機會是深遠的。人工智能很可能是我們文明創(chuàng)造的最重要,也是最好的東西,當然可以與電力和微芯片相提并論,甚至可能超越這些。
人工智能的發(fā)展和擴散——遠非我們應(yīng)該擔(dān)心的風(fēng)險——是我們對自己、對孩子和未來的道德義務(wù)。
我們應(yīng)該生活在一個擁有人工智能的更美好的世界里,現(xiàn)在我們可以了。

那么為什么會感到恐慌呢?
與這種積極的觀點相反,關(guān)于人工智能的公眾對話目前充滿了歇斯底里的恐懼和偏執(zhí)。
我們聽到有人說,人工智能會以不同的方式殺死我們所有人,毀掉我們的社會,奪走我們所有的工作,造成嚴重的不平等,并使壞人能夠做可怕的事情。
是什么解釋了從近乎烏托邦到可怕的反烏托邦的潛在結(jié)果的分歧?
從歷史上看,每一項重要的新技術(shù),從電燈到汽車,從收音機到互聯(lián)網(wǎng),都引發(fā)了道德恐慌——一種社會傳染病,讓人們相信新技術(shù)將摧毀世界,或社會,或兩者兼而有之。悲觀主義者檔案館(Pessimists Archive)的優(yōu)秀人士幾十年來記錄了這些由技術(shù)驅(qū)動的道德恐慌;他們的歷史使這種模式生動清晰。事實證明,目前的恐慌甚至不是人工智能的第一次。
現(xiàn)在,可以肯定的是,許多新技術(shù)導(dǎo)致了糟糕的結(jié)果——通常是同樣的技術(shù),否則對我們的福利非常有益。因此,并不是說道德恐慌的存在就意味著沒有什么可擔(dān)心的。
但道德恐慌本質(zhì)上是非理性的——它把可能合理的擔(dān)憂膨脹成歇斯底里的程度,具有諷刺意味的是,這使得面對真正嚴重的擔(dān)憂變得更加困難。
哇,我們現(xiàn)在對人工智能有一種全面的道德恐慌。
這種道德恐慌已經(jīng)被各種參與者用作要求采取政策行動的動力——新的人工智能限制、法規(guī)和法律。這些行為者正在就人工智能的危險發(fā)表極其戲劇性的公開聲明——以助長并進一步煽動道德恐慌——都以無私的公共利益捍衛(wèi)者自居。
但是他們呢?
他們是對還是錯?

人工智能的浸信會和走私者
經(jīng)濟學(xué)家在這種改革運動中觀察到了一個長期的模式。像這樣的運動中的參與者分為兩類 - “浸信會”和“走私者” - 借鑒了1920年代美國禁酒的歷史例子:
“浸信會”是真正的信徒社會改革者,他們有理由——如果不是理性地——深刻地、情感地感受到,需要新的限制、法規(guī)和法律來防止社會災(zāi)難。 對于禁酒令,這些演員往往是虔誠的基督徒,他們認為酒精正在摧毀社會的道德結(jié)構(gòu)。 對于人工智能風(fēng)險,這些參與者是人工智能存在一種或另一種存在風(fēng)險的忠實信徒——把他們綁在測謊儀上,他們是認真的。
“走私者”是自私自利的機會主義者,他們通過施加新的限制、法規(guī)和法律來使他們與競爭對手隔離開來,從而獲得經(jīng)濟利益。 對于禁酒令,這些是名副其實的走私者,他們在禁止合法銷售酒精時向美國人出售非法酒精而發(fā)了財。 對于人工智能風(fēng)險,如果建立監(jiān)管壁壘,形成政府支持的人工智能供應(yīng)商卡特爾,免受新創(chuàng)業(yè)和開源競爭的影響,這些首席執(zhí)行官將賺更多的錢 - “太大而不能倒閉”銀行的軟件版本。
憤世嫉俗的人會認為,一些明顯的浸信會教徒也是走私者——特別是那些被他們的大學(xué)、智庫、活動家團體和媒體付錢攻擊人工智能的人。如果你拿到薪水或獲得助長人工智能恐慌的補助金......你可能是一個走私者。
走私者的問題在于他們贏了。浸信會是天真的理論家,走私者是憤世嫉俗的經(jīng)營者,所以像這樣的改革運動的結(jié)果往往是走私者得到了他們想要的東西——監(jiān)管俘虜、與競爭絕緣、卡特爾的形成——浸信會想知道他們的社會進步動力在哪里出了問題。
我們剛剛經(jīng)歷了一個驚人的例子——2008年全球金融危機后的銀行改革。浸信會告訴我們,我們需要新的法律法規(guī)來打破“太大而不能倒閉”的銀行,以防止這樣的危機再次發(fā)生。因此,國會通過了2010年的《多德-弗蘭克法案》(Dodd-Frank Act of 2008),該法案被宣傳為滿足浸信會的目標,但實際上卻被走私者——大銀行——所籠絡(luò)。結(jié)果是,<>年“太大而不能倒閉”的銀行現(xiàn)在要大得多。
因此,在實踐中,即使浸信會是真實的——即使浸信會是對的——他們?也會縱和貪婪的走私者用作掩護,以謀取利益。
這就是目前人工智能監(jiān)管過程中正在發(fā)生的事情。
然而,僅僅確定演員并指責(zé)他們的動機是不夠的。我們應(yīng)該考慮浸信會和走私者的論點。

AI風(fēng)險#1:AI會殺死我們所有人嗎?
第一個也是最初的人工智能厄運風(fēng)險是,人工智能將決定從字面上殺死人類。
我們自己創(chuàng)造的技術(shù)會興起并摧毀我們的恐懼深深地植根于我們的文化中。希臘人在普羅米修斯神話中表達了這種恐懼——普羅米修斯將火的破壞力,以及更普遍的技術(shù)(“技術(shù)”)帶給人類,為此普羅米修斯被眾神判處永久折磨。后來,瑪麗·雪萊(Mary Shelley)在她的小說《弗蘭肯斯坦》(Frankenstein)或《現(xiàn)代普羅米修斯》(The Modern Prometheus)中為我們現(xiàn)代人提供了我們自己版本的這個神話,其中我們開發(fā)了永生的技術(shù),然后它崛起并試圖摧毀我們。當然,如果沒有詹姆斯·卡梅?。↗ames Cameron)的《終結(jié)者》(Terminator)電影中閃閃發(fā)光的紅眼殺手機器人的靜止圖像,任何AI恐慌報紙的故事都是不完整的。
這個神話的假定進化目的是激勵我們認真考慮新技術(shù)的潛在風(fēng)險——畢竟,火確實可以用來燒毀整個城市。但是,正如火也是現(xiàn)代文明的基礎(chǔ),用來讓我們在一個寒冷和充滿敵意的世界中保持溫暖和安全一樣,這個神話忽略了大多數(shù)人更大的好處 - 所有?– 新技術(shù),在實踐中煽動破壞性情緒,而不是理性分析。僅僅因為前現(xiàn)代人像這樣驚慌失措并不意味著我們必須這樣做;我們可以應(yīng)用理性來代替。
我的觀點是,人工智能將決定真正殺死人類的想法是一個深刻的類別錯誤。人工智能不是一種經(jīng)過數(shù)十億年進化的生物,它像動物和我們一樣,參與適者生存的戰(zhàn)斗。它是數(shù)學(xué) - 代碼 - 計算機,由人建造,由人擁有,由人使用,由人控制。認為它會在某個時候發(fā)展出自己的思想,并決定它有動機導(dǎo)致它試圖殺死我們的想法是一種迷信的揮手。
簡而言之,人工智能不想要,它沒有目標,它不想殺死你,因為它沒有生命。人工智能是一臺機器——不會像你的烤面包機那樣活躍起來。
現(xiàn)在,很明顯,有殺手級人工智能的真正信徒 - 浸信會 - 他們因其可怕的警告而突然獲得了大量的媒體報道,其中一些人聲稱已經(jīng)研究了這個話題幾十年,并說他們現(xiàn)在被他們學(xué)到的東西嚇得失去理智。其中一些真正的信徒甚至是這項技術(shù)的實際創(chuàng)新者。這些參與者主張對人工智能進行各種奇怪和極端的限制,從禁止人工智能開發(fā),一直到對數(shù)據(jù)中心的軍事空襲和核戰(zhàn)爭。他們認為,因為像我這樣的人不能排除人工智能未來的災(zāi)難性后果,我們必須采取預(yù)防措施,可能需要大量的身體暴力和死亡,以防止?jié)撛诘纳骘L(fēng)險。
我的回答是,他們的立場是不科學(xué)的——什么是可檢驗的假設(shè)?什么會證偽這個假設(shè)?我們怎么知道我們什么時候進入危險區(qū)域? 這些問題除了“你無法證明它不會發(fā)生!事實上,這些浸信會教徒的立場是如此不科學(xué)和極端——一種關(guān)于數(shù)學(xué)和代碼的陰謀論——并且已經(jīng)在呼吁身體暴力,我會做一些我通常不會做的事情,并質(zhì)疑他們的動機。
具體來說,我認為有三件事正在發(fā)生:
首先,回想一下,約翰·馮·諾依曼(John Von Neumann)回應(yīng)了羅伯特·奧本海默(Robert Oppenheimer)關(guān)于他制造核武器的角色的著名抨擊 - 這有助于結(jié)束第二次世界大戰(zhàn)并防止第三次世界大戰(zhàn) - “有些人認罪是為了聲稱罪惡。一個人可以聲稱自己的工作的重要性而不聽起來公然自夸的最戲劇性的方式是什么?這解釋了實際建設(shè)和資助人工智能的浸信會信徒的言行不匹配——注意他們的行動,而不是他們的言語。(杜魯門在與奧本海默會面后更加嚴厲: “不要再讓那個哭泣的嬰兒進來了。”)
其次,一些浸信會信徒實際上是走私者。有“人工智能安全專家”、“人工智能倫理學(xué)家”、“人工智能風(fēng)險研究員”的整個職業(yè)。他們被付錢成為厄運者,他們的陳述應(yīng)該得到適當?shù)奶幚怼?/p>
第三,加州理所當然地以我們成千上萬的邪教而聞名,從美國東部時間到人民圣殿,從天堂之門到曼森家族。這些邪教中的許多(盡管不是全部)是無害的,甚至可能為在其中找到家的疏遠者服務(wù)。但有些確實非常危險,眾所周知,邪教很難跨越最終導(dǎo)致暴力和死亡的界限。
而現(xiàn)實,對灣區(qū)的每個人都是顯而易見的,但可能不是在灣區(qū)之外,“人工智能風(fēng)險”已經(jīng)發(fā)展成為一種邪教,它突然出現(xiàn)在全球媒體關(guān)注和公眾對話的光芒中。這個邪教不僅吸引了邊緣人物,還吸引了一些真正的行業(yè)專家和不少富有的捐助者——直到最近,還包括山姆·班克曼-弗里德(Sam Bankman-Fried)。它發(fā)展了一整套邪教行為和信仰。
這種邪教就是為什么有一群聽起來如此極端的人工智能風(fēng)險厄運者——并不是他們實際上擁有使他們的極端主義合乎邏輯的秘密知識,而是他們已經(jīng)將自己鞭打成狂熱,真的是......極其極端。
事實證明,這種類型的邪教并不新鮮——西方有著悠久的千禧年傳統(tǒng),它產(chǎn)生了世界末日邪教。人工智能風(fēng)險邪教具有千年啟示錄邪教的所有特征。來自維基百科,我補充:
“千禧年主義是一個團體或運動[人工智能風(fēng)險厄運者]對即將到來的社會根本性轉(zhuǎn)變[人工智能的到來]的信念,之后一切都將改變[人工智能烏托邦,反烏托邦和/或世界末日]。只有戲劇性的事件(人工智能禁令、對數(shù)據(jù)中心的空襲、對不受監(jiān)管的人工智能的核打擊)才被認為能夠改變世界[防止人工智能],而這種變化預(yù)計將由一群虔誠和奉獻的人帶來或幸存下來。在大多數(shù)千禧年情景中,即將到來的災(zāi)難或戰(zhàn)斗[人工智能啟示錄,或其預(yù)防]之后將是一個新的、凈化的世界[人工智能禁令],信徒將得到獎勵[或至少承認一直都是正確的]。
這種啟示錄邪教模式是如此明顯,以至于我很驚訝更多的人沒有看到它。
不要誤會我的意思,邪教很有趣,他們的書面材料通常很有創(chuàng)意和引人入勝,他們的成員在晚宴和電視上參與其中。但他們的極端信仰不應(yīng)該決定法律和社會的未來——顯然不是。

AI風(fēng)險#2:AI會毀掉我們的社會嗎?
第二個被廣泛討論的人工智能風(fēng)險是,人工智能將毀掉我們的社會,通過產(chǎn)生如此“有害”的輸出,用這種毀滅者的命名法來說,對人類造成深遠的傷害,即使我們沒有被殺死。
簡短版本:如果謀殺機器人沒有抓住我們,仇恨言論和錯誤信息就會得到。
這是一個相對較新的厄運問題,它從我上面描述的“人工智能風(fēng)險”運動中分支出來并在某種程度上接管了它。事實上,人工智能風(fēng)險的術(shù)語最近從“人工智能安全”(擔(dān)心人工智能會殺死我們的人使用的術(shù)語)變成了“人工智能對齊”——擔(dān)心社會“危害”的人使用的術(shù)語。最初的AI安全人員對這種轉(zhuǎn)變感到沮喪,盡管他們不知道如何將其放回盒子里 - 他們現(xiàn)在主張將實際的AI 風(fēng)險主題更名為“AI notkilleveryoneism”,這尚未被廣泛采用,但至少是明確的。
人工智能社會風(fēng)險索賠性質(zhì)的提示是它自己的術(shù)語,“人工智能對齊”。 與什么對齊? 人類價值觀。 誰的人類價值觀? 啊,這就是事情變得棘手的地方。
碰巧的是,我坐在前排,看到類似的情況——社交媒體的“信任與安全”戰(zhàn)爭。現(xiàn)在很明顯,社交媒體服務(wù)多年來一直受到政府和活動家的巨大壓力,要求禁止、限制、審查或以其他方式壓制各種內(nèi)容。對“仇恨言論”(及其數(shù)學(xué)對應(yīng)物“算法偏見”)和“錯誤信息”的同樣擔(dān)憂正在從社交媒體環(huán)境中直接轉(zhuǎn)移到“人工智能對齊”的新領(lǐng)域。
我從社交媒體大戰(zhàn)中學(xué)到的重要經(jīng)驗是:
一方面,沒有絕對主義的言論自由立場。首先,每個國家,包括美國,都至少將某些內(nèi)容定為非法。其次,某些類型的內(nèi)容,如兒童色情和煽動現(xiàn)實世界的暴力,幾乎被每個社會普遍認為是禁區(qū),無論是否合法。因此,任何促進或生成內(nèi)容(語音)的技術(shù)平臺都會受到一些限制。
另一方面,滑坡不是謬誤,而是必然。一旦一個限制甚至極其可怕的內(nèi)容的框架到位——例如,仇恨言論、特定的傷害性詞語或錯誤信息,顯然是虛假的聲明,如“教皇死了”——令人震驚的廣泛政府機構(gòu)和活動壓力團體和非政府實體 將開始并要求更高水平的審查和壓制他們認為對社會和/或他們自己的個人偏好構(gòu)成威脅的任何言論。他們將以赤裸裸的重罪方式這樣做,包括這樣做。在實踐中,這個循環(huán)顯然可以永遠持續(xù)下去,在我們的精英權(quán)力結(jié)構(gòu)中安裝的專制大廳監(jiān)視器的熱情支持下。這在社交媒體上已經(jīng)層層疊了十年,只有某些例外,它一直在變得更加狂熱。
這就是現(xiàn)在圍繞“人工智能對齊”形成的動態(tài)。它的支持者聲稱有智慧來設(shè)計人工智能生成的對社會有益的言論和思想,并禁止人工智能生成的對社會有害的言論和思想。它的反對者聲稱,思想警察是令人嘆為觀止的傲慢和放肆的——至少在美國往往是徹頭徹尾的罪犯——事實上,他們正在尋求成為一種新型的融合政府-企業(yè)-學(xué)術(shù)專制言論獨裁者,直接從喬治·奧威爾(George Orwell)的《1984》中撕下來。
由于“信任與安全”和“人工智能聯(lián)盟”的支持者都聚集在全球人口中非常狹窄的人群中,這是美國沿海精英的特征——其中包括許多在科技行業(yè)工作和寫作的人——我的許多讀者會發(fā)現(xiàn)自己已經(jīng)準備好爭辯說,為了避免摧毀社會,需要對人工智能輸出進行嚴格的限制。我現(xiàn)在不會試圖說服你擺脫這種情況,我只想說這是需求的本質(zhì),世界上大多數(shù)人既不同意你的意識形態(tài),也不想看到你獲勝。
如果你不同意通過不斷強化的語音代碼強加給社交媒體和人工智能的普遍小眾道德,你也應(yīng)該意識到,關(guān)于人工智能被允許說/生成什么的斗爭將?比對社交媒體審查的斗爭更重要。人工智能極有可能成為世界上一切事物的控制層。如何允許它運作可能比其他任何事情都重要。你應(yīng)該意識到,一小撮孤立的社會工程師小圈子現(xiàn)在正試圖確定這一點,在他們保護你的古老主張的掩護下。
簡而言之,不要讓思想警察壓制人工智能。

AI風(fēng)險#3:AI會搶走我們所有的工作嗎?
自機械織機等機械織機等機械最初出現(xiàn)以來,數(shù)百年來,由于機械化、自動化、計算機化或人工智能而對失業(yè)的恐懼一直是反復(fù)出現(xiàn)的恐慌。盡管歷史上每一項新的重大技術(shù)都帶來了更多以更高的工資工作,但每一波恐慌都伴隨著“這次不同”的主張——這是它最終會發(fā)生的時候,這是最終將給人類勞動帶來重擊的技術(shù)。然而,它從未發(fā)生過。
在最近的過去,我們經(jīng)歷了兩個這樣的技術(shù)驅(qū)動的失業(yè)恐慌周期—— 2000年代的外包恐慌和2010年代的自動化恐慌。盡管在大規(guī)模失業(yè)臨近的這兩個十年里,許多談話領(lǐng)袖、專家甚至科技行業(yè)高管都在抨擊桌子,但到 2019 年底——就在 COVID 爆發(fā)之前——世界擁有比以往任何時候都多的工作崗位,工資更高。
然而,這種錯誤的想法不會消亡。
果然,它回來了。
這一次,我們終于擁有了能夠取代所有工作并使人類工人變得多余的技術(shù)——真正的人工智能。當然,這一次歷史不會重演,人工智能將導(dǎo)致大規(guī)模失業(yè)——而不是快速的經(jīng)濟、就業(yè)和工資增長——對吧?
不,這不會發(fā)生——事實上,如果允許人工智能在整個經(jīng)濟中發(fā)展和擴散,可能會導(dǎo)致有史以來最戲劇性和持續(xù)的經(jīng)濟繁榮,相應(yīng)地創(chuàng)造創(chuàng)紀錄的就業(yè)和工資增長——與恐懼完全相反。原因如下。
自動化殺死工作的厄運者不斷犯的核心錯誤被稱為勞動力謬誤。這種謬誤是一種不正確的觀念,即在任何給定時間,經(jīng)濟中都有固定數(shù)量的勞動要做,要么機器做,要么人做——如果機器做,人們就沒有工作可做。
勞動謬誤自然地源于幼稚的直覺,但這里的天真直覺是錯誤的。當技術(shù)應(yīng)用于生產(chǎn)時,我們就會獲得生產(chǎn)率增長——通過減少投入來增加產(chǎn)出。其結(jié)果是商品和服務(wù)的價格降低。隨著商品和服務(wù)價格的下降,我們?yōu)樗鼈冎Ц兜馁M用也越來越少,這意味著我們現(xiàn)在有額外的消費能力來購買其他東西。這增加了經(jīng)濟中的需求,從而推動了新生產(chǎn)的創(chuàng)造 - 包括新產(chǎn)品和新產(chǎn)業(yè) - 然后為以前工作中被機器取代的人創(chuàng)造新的就業(yè)機會。其結(jié)果是一個更大的經(jīng)濟體,擁有更高的物質(zhì)繁榮、更多的工業(yè)、更多的產(chǎn)品和更多的就業(yè)機會。
但好消息并不止于此。我們也得到了更高的工資。這是因為,在個體工人的層面上,市場將補償設(shè)定為工人邊際生產(chǎn)力的函數(shù)。技術(shù)注入企業(yè)中的工人將比傳統(tǒng)企業(yè)中的工人更有效率。雇主要么付給工人更多的錢,因為他現(xiàn)在的生產(chǎn)力更高,要么另一個雇主會,純粹是出于自身利益。其結(jié)果是,引入行業(yè)的技術(shù)通常不僅增加了該行業(yè)的工作崗位數(shù)量,而且還提高了工資。
總而言之,技術(shù)使人們能夠提高工作效率。這導(dǎo)致現(xiàn)有商品和服務(wù)的價格下降,工資上漲。這反過來又導(dǎo)致經(jīng)濟增長和就業(yè)增長,同時激勵創(chuàng)造新的就業(yè)機會和新產(chǎn)業(yè)。如果允許市場經(jīng)濟正常運行,如果允許技術(shù)自由引入,這是一個永無止境的永久上升循環(huán)。因為,正如米爾頓·弗里德曼(Milton Friedman)所說,“人類的需求是無窮無盡的”——我們總是想要比我們擁有的更多。技術(shù)注入的市場經(jīng)濟是我們更接近于提供每個人都可以想象到的一切的方式,但永遠不會一直到那里。這就是為什么技術(shù)不會摧毀工作,也永遠不會。
對于沒有接觸過它們的人來說,這些想法是如此令人振奮,以至于您可能需要一些時間來理解它們。但我發(fā)誓我不是編造的——事實上,你可以在標準的經(jīng)濟學(xué)教科書中讀到所有關(guān)于它們的內(nèi)容。我推薦 亨利·黑茲利特(Henry Hazlitt)的《一堂課中的經(jīng)濟學(xué)》(Economics In One Lesson)中的“機械的詛咒”一章,以及弗雷德里克·巴斯夏(Frederic Bastiat)諷刺性的《蠟燭匠請愿書》(Candlemaker's Petition),因為它與照明行業(yè)的不公平競爭而遮蔽了太陽,這里為我們的時代進行了現(xiàn)代化改造。
但這次不同,你在想。?這一次,有了人工智能,我們就有了可以取代所有人類勞動力的技術(shù)。
但是,使用我上面描述的原則,想想所有現(xiàn)有的人類勞動被機器取代意味著什么。
這將意味著經(jīng)濟生產(chǎn)率增長的起飛速度絕對是平流層的,遠遠超過任何歷史先例?,F(xiàn)有商品和服務(wù)的價格將全面下降到幾乎為零。消費者福利將飆升。消費者的消費能力將飆升。經(jīng)濟中的新需求將爆炸式增長。企業(yè)家將創(chuàng)造一系列令人眼花繚亂的新行業(yè)、產(chǎn)品和服務(wù),并盡可能快地雇用盡可能多的人和?人工智能來滿足所有新需求。
假設(shè)人工智能再次取代這種勞動?這種循環(huán)將重演,推動消費者福利、經(jīng)濟增長以及就業(yè)和工資增長進一步提高。這將是一個直截了當?shù)穆菪ㄏ蛞粋€亞當·斯密或卡爾·馬克思都不敢夢想的物質(zhì)烏托邦。
我們應(yīng)該很幸運。

人工智能風(fēng)險#4:人工智能會導(dǎo)致嚴重的不平等嗎?
說到卡爾·馬克思(Karl Marx),對人工智能搶走工作的擔(dān)憂直接轉(zhuǎn)向了下一個聲稱的人工智能風(fēng)險,也就是說,好吧,馬克,假設(shè)人工智能確實搶走了所有的工作,無論是壞事還是好事。這難道不會導(dǎo)致大規(guī)模和嚴重的財富不平等,因為人工智能的所有者獲得了所有的經(jīng)濟回報,而普通人卻一無所獲?
碰巧的是,這是馬克思主義的一個核心主張,即生產(chǎn)資料的所有者——資產(chǎn)階級——將不可避免地從從事實際工作的人——無產(chǎn)階級那里竊取所有社會財富。這是另一個謬論,無論它被現(xiàn)實反駁多少次都不會消亡。但無論如何,讓我們在它的心臟上打一根木樁。
這個理論的缺陷在于,作為一項技術(shù)的所有者,把它留給自己不符合你自己的利益——事實上恰恰相反,把它賣給盡可能多的客戶符合你自己的利益。世界上任何產(chǎn)品的最大市場是整個世界,我們所有8億人。因此,在現(xiàn)實中,每一項新技術(shù)——即使是那些一開始就賣給高薪大公司或富裕消費者的稀薄空氣的技術(shù)——都會迅速擴散,直到它掌握在盡可能大的大眾市場手中,最終落入地球上的每個人手中。
這方面的典型例子是埃隆·馬斯克(Elon Musk)在 2006年為特斯拉提出的所謂“秘密計劃”——他自然而然地公開發(fā)布了該計劃:
第1步,建造[昂貴的]跑車
第 2 步,用這筆錢制造一輛負擔(dān)得起的汽車
第 3 步,用這筆錢制造一輛更實惠的汽車
...當然,這正是他所做的,因此成為世界上最富有的人。
最后一點是關(guān)鍵。如果埃隆今天只向富人出售汽車,他會更富有嗎?不,如果他只為自己制造汽車,他會比這更富有嗎?當然不是。不,他通過向最大的市場——世界銷售來最大化自己的利潤。
簡而言之,每個人都能得到東西——正如我們過去看到的那樣,不僅是汽車,還有電力、收音機、計算機、互聯(lián)網(wǎng)、手機和搜索引擎。這些技術(shù)的制造商非常積極地降低價格,直到地球上每個人都能負擔(dān)得起。這正是人工智能中已經(jīng)發(fā)生的事情——這就是為什么你可以使用最先進的生成人工智能,不僅成本低,而且今天甚至以?微軟必應(yīng)和谷歌巴德的形式免費——而且它將繼續(xù)發(fā)生。不是因為這些供應(yīng)商愚蠢或慷慨,而恰恰是因為他們貪婪——他們想最大化他們的市場規(guī)模,從而最大化他們的利潤。
因此,發(fā)生的事情與推動財富集中的技術(shù)相反 - 技術(shù)的個人客戶,最終包括地球上的每個人,反而被賦予權(quán)力,并捕獲大部分產(chǎn)生的價值。與以前的技術(shù)一樣,構(gòu)建人工智能的公司 - 假設(shè)它們必須在自由市場中運作 - 將激烈競爭以實現(xiàn)這一目標。
馬克思當時錯了,現(xiàn)在他也錯了。
這并不是?說不平等在我們的社會中不是一個問題。事實上,它不是由技術(shù)驅(qū)動的,而是由相反的,由對新技術(shù)最抗拒的經(jīng)濟部門驅(qū)動,這些部門擁有最多的政府干預(yù)來阻止采用人工智能等新技術(shù) - 特別是住房,教育和醫(yī)療保健。人工智能和不平等的實際風(fēng)險不是人工智能會導(dǎo)致更多的不平等,而是我們不會允許人工智能被用來減少不平等。

AI風(fēng)險#5:AI會導(dǎo)致壞人做壞事嗎?
到目前為止,我已經(jīng)解釋了為什么人工智能最常提出的五個風(fēng)險中有四個實際上并不真實——人工智能不會復(fù)活并殺死我們,人工智能不會毀掉我們的社會,人工智能不會造成大規(guī)模失業(yè),人工智能不會導(dǎo)致不平等的毀滅性增加。但是現(xiàn)在讓我們解決第五個問題,我實際上同意這一點:人工智能將使壞人更容易做壞事。
從某種意義上說,這是一種重言式。技術(shù)是一種工具。工具,從火和石頭開始,可以用來做好事——做飯和蓋房子——壞事——燒人,打人。任何技術(shù)都可以用于好或壞。很公平。毫無疑問,人工智能將使犯罪分子、恐怖分子和敵對政府更容易做壞事。
這導(dǎo)致一些人提出,好吧,在這種情況下,我們不要冒險,讓我們在這種情況發(fā)生之前現(xiàn)在就禁止人工智能。不幸的是,人工智能并不是一些難以獲得的深奧的物理材料,比如钚。恰恰相反,它是世界上最容易獲得的材料——數(shù)學(xué)和代碼。
AI貓顯然已經(jīng)從袋子里出來了。您可以從數(shù)以千計的免費在線課程、書籍、論文和視頻中學(xué)習(xí)如何構(gòu)建 AI,并且每天都有出色的開源實現(xiàn)激增。人工智能就像空氣——它將無處不在。要阻止如此嚴厲的極權(quán)主義壓迫——一個世界政府監(jiān)視和控制所有計算機?黑色直升機上的暴徒抓住流氓 GPU?– 我們不會有一個社會需要保護。
因此,有兩種非常簡單的方法可以解決壞人用人工智能做壞事的風(fēng)險,而這些正是我們應(yīng)該關(guān)注的。
首先,我們有法律將任何人將要用人工智能做的大多數(shù)壞事定為犯罪。入侵五角大樓?這是犯罪。從銀行偷錢?這是犯罪。制造生物武器?這是犯罪。犯下恐怖主義行為?這是犯罪。我們可以在可能的情況下集中精力預(yù)防這些罪行,在不能預(yù)防時起訴這些罪行。我們甚至不需要新的法律——我不知道有人提出的人工智能的實際不良用途已經(jīng)不是非法的。如果發(fā)現(xiàn)新的不良用途,我們將禁止該使用。QED。
但你會注意到我在那里溜進去的東西——我說我們應(yīng)該首先關(guān)注在人工智能協(xié)助犯罪發(fā)生之前預(yù)防它們——這樣的預(yù)防不意味著禁止人工智能嗎?嗯,還有另一種方法可以防止這種行為,那就是使用人工智能作為防御工具。使人工智能在有壞目標的壞人手中變得危險的相同能力,使其在有好目標的好人手中變得強大——特別是那些工作是防止壞事發(fā)生的好人。
例如,如果你擔(dān)心人工智能會產(chǎn)生假人和假視頻,答案是構(gòu)建新的系統(tǒng),人們可以通過加密簽名來驗證自己和真實內(nèi)容。真假內(nèi)容的數(shù)字創(chuàng)建和更改在人工智能之前就已經(jīng)存在;答案不是禁止文字處理器和Photoshop或AI,而是使用技術(shù)來構(gòu)建一個真正解決問題的系統(tǒng)。
因此,其次,讓我們做出重大努力,將人工智能用于良好的、合法的、防御性的目的。讓我們讓人工智能在網(wǎng)絡(luò)防御、生物防御、獵殺恐怖分子以及我們?yōu)楸Wo自己、我們的社區(qū)和我們的國家安全所做的一切中發(fā)揮作用。
當然,政府內(nèi)外已經(jīng)有很多聰明人這樣做——但如果我們把目前專注于禁止人工智能的徒勞前景的所有努力和腦力都用于?使用人工智能來防止壞人做壞事,我認為毫無疑問,一個注入人工智能的世界將比我們今天生活的世界安全得多。

不以最大力量和速度追求人工智能的實際風(fēng)險
有一個最終的,也是真實的,人工智能的風(fēng)險可能是最可怕的:
人工智能不僅在西方相對自由的社會中發(fā)展,它也是由中華人民共和國共產(chǎn)黨開發(fā)的。
中國對人工智能的看法與我們大不相同——他們認為人工智能是一種威權(quán)人口控制的機制。他們甚至沒有對此保密,他們對此非常清楚,他們已經(jīng)在追求他們的議程。他們并不打算將他們的人工智能戰(zhàn)略局限于中國——他們打算將其擴散到世界各地,在他們?yōu)?G網(wǎng)絡(luò)供電的任何地方,在他們借給“一帶一路”資金的任何地方,在他們提供像Tiktok這樣的友好消費者應(yīng)用程序的地方,作為他們集中指揮和控制人工智能的前端。
人工智能最大的風(fēng)險是,中國贏得了全球人工智能的主導(dǎo)地位,而我們——美國和西方——卻沒有。
我提出了一個簡單的策略來解決這個問題——事實上,羅納德·里根總統(tǒng)用來贏得與蘇聯(lián)的第一次冷戰(zhàn)的策略是一樣的。
“我們贏了,他們輸了?!?/p>
與其讓圍繞殺手級人工智能、“有害”人工智能、破壞就業(yè)的人工智能和產(chǎn)生不平等的人工智能的無根據(jù)恐慌讓我們陷入困境,我們美國和西方人應(yīng)該盡可能地傾向于人工智能。
我們應(yīng)該尋求贏得全球人工智能技術(shù)優(yōu)勢的競賽,并確保中國不會這樣做。
在這個過程中,我們應(yīng)該盡可能快和努力地推動人工智能進入我們的經(jīng)濟和社會,以最大限度地提高其對經(jīng)濟生產(chǎn)力和人類潛力的收益。
這是抵消真正的人工智能風(fēng)險并確保我們的生活方式不會被更黑暗的愿景所取代的最佳方式。

怎么辦?
我提出一個簡單的計劃:
大型人工智能公司應(yīng)該被允許盡可能快速和積極地構(gòu)建人工智能,但不允許實現(xiàn)監(jiān)管捕獲,不允許建立一個政府保護的卡特爾,由于人工智能風(fēng)險的錯誤主張而不受市場競爭的影響。這將最大限度地提高這些公司驚人能力的技術(shù)和社會回報,這些公司是現(xiàn)代資本主義的瑰寶。
應(yīng)該允許初創(chuàng)的人工智能公司盡可能快速和積極地構(gòu)建人工智能?。他們既不應(yīng)該面對政府給予的大公司的保護,也不應(yīng)該接受政府的援助。他們應(yīng)該被允許競爭。如果創(chuàng)業(yè)公司沒有成功,它們在市場上的存在也將不斷激勵大公司做到最好——我們的經(jīng)濟和社會無論哪種方式都會贏。
開源人工智能應(yīng)該被允許自由擴散,并與大型人工智能公司和初創(chuàng)公司競爭。開源不應(yīng)該有任何監(jiān)管障礙。即使開源沒有擊敗公司,它的廣泛可用性對世界各地想要學(xué)習(xí)如何構(gòu)建和使用人工智能成為技術(shù)未來一部分的學(xué)生來說也是一個福音,并將確保人工智能可供每個可以從中受益的人使用,無論他們是誰或他們有多少錢。
為了抵消壞人用人工智能做壞事的風(fēng)險,政府應(yīng)該與私營部門合作,積極參與每個潛在風(fēng)險領(lǐng)域,利用人工智能最大限度地提高社會的防御能力。這不應(yīng)僅限于人工智能支持的風(fēng)險,還應(yīng)包括營養(yǎng)不良、疾病和氣候等更普遍的問題。人工智能可以成為解決問題的強大工具,我們應(yīng)該接受它。
為了防止中國實現(xiàn)全球人工智能主導(dǎo)地位的風(fēng)險,我們應(yīng)該利用我們的私營部門、我們的科學(xué)機構(gòu)和我們的政府的全部力量,共同推動美國和西方人工智能走向絕對的全球主導(dǎo)地位,包括最終在中國國內(nèi)。我們贏了,他們輸了。
這就是我們利用人工智能拯救世界的方式。
是時候去開創(chuàng)了。

傳奇與英雄
最后,我簡單說兩句話。
人工智能的發(fā)展始于 1940 年代,與計算機的發(fā)明同時出現(xiàn)。第一篇關(guān)于神經(jīng)網(wǎng)絡(luò)的科學(xué)論文——我們今天擁有的人工智能架構(gòu)——發(fā)表于 1943 年。在過去的80年里,整整幾代人工智能科學(xué)家出生、上學(xué)、工作,在許多情況下,他們?nèi)ナ罆r沒有看到我們現(xiàn)在得到的回報。他們都是傳奇,每一個人。
如今,越來越多的工程師——其中許多人都很年輕,可能有祖父母甚至曾祖父母參與了人工智能背后想法的創(chuàng)造——正在努力使人工智能成為現(xiàn)實,反對一堵散布恐懼和涂鴉主義的墻,試圖將他們描繪成魯莽的惡棍。我不相信他們是魯莽或惡棍。他們都是英雄,每一個人。我和我的公司很高興能盡可能多地支持他們,我們將100%與他們和他們的工作站在一起。
馬克·安德森的觀點值得批判學(xué)習(xí),尤其是美國的精英階層已經(jīng)注意到中國對于AI的認知與西方世界大相徑庭,但顯然中國的議程更有改變未來的力量,所以馬克在其觀點中也發(fā)出了對華遏制與對抗的聲音,這是值得警惕的。