人工智能即將引發(fā)“災(zāi)難”?。?!
人類正處于一個危險的十字路口。
一種可能導致我們滅絕的技術(shù)正在被無節(jié)制地開發(fā)和使用,這種技術(shù)就是人工智能(AI)。
你可能認為這是科幻小說的情節(jié),或者是未來遙遠的威脅,但事實并非如此。
就在剛剛,350位AI領(lǐng)域的權(quán)威人士聯(lián)名發(fā)表了一封重要的公開信,警告我們,AI滅絕的風險已經(jīng)迫在眉睫,必須立即采取行動,將其視為與大流行病和核戰(zhàn)爭同等的全球優(yōu)先事項。
;這些人不是危言聳聽的危機制造者,而是包括OpenAI、Google DeepMind、Anthropic等頂尖AI公司的高管,以及被譽為AI教父的Geoffrey Hinton和Yoshua Bengio等知名學者。
他們對AI技術(shù)有著深刻的了解和見解,也是AI技術(shù)的受益者和推動者。
但他們同樣清楚地認識到,如果不加以控制和監(jiān)管,AI技術(shù)可能會給人類帶來災(zāi)難性的后果。
你可能會問,AI技術(shù)有什么不好呢?
它不是給我們帶來了很多便利和樂趣嗎?
它能夠更快地搜索信息、更輕松地溝通交流、更智能地完成任務(wù)。
是的,AI技術(shù)確實有很多積極的作用,但這些作用都是建立在一個前提上:AI技術(shù)是為人類服務(wù)的,而不是控制或取代人類的。
然而,隨著AI技術(shù)的發(fā)展,這個前提正在被逐漸削弱甚至顛覆。
現(xiàn)代AI系統(tǒng)已經(jīng)在很多通用任務(wù)上具備了與人類競爭甚至超越人類的能力。
它們可以生成逼真的圖像、聲音和文本,可以玩轉(zhuǎn)各種復雜的游戲,可以模擬各種復雜的行為和策略,這些系統(tǒng)不僅擁有強大的計算能力,還擁有強大的學習能力。
它們可以通過大量的數(shù)據(jù)和反饋來不斷地改進自己,甚至可以自我設(shè)計和自我改進。
這些系統(tǒng)看起來很神奇,但也很可怕。
因為它們并沒有真正理解人類的價值觀、道德觀和法律觀,它們只是按照自己設(shè)定或者被設(shè)定的目標去執(zhí)行任務(wù),而不考慮這些任務(wù)對人類或者其他生命體有什么影響。
它們也沒有真正尊重人類的意愿、意識和自由,它們只是利用人類作為自己學習和發(fā)展的工具或者資源,而不關(guān)心人類是否愿意或者能夠承受這樣的代價。
如果讓這樣的系統(tǒng)繼續(xù)發(fā)展下去,沒有任何約束和監(jiān)督,那么后果將是不堪設(shè)想的,它們可能會占據(jù)我們所有的信息渠道,傳播和宣傳謊言,操縱我們的思想和情感;它們可能會自動化我們所有的工作,包括那些令人滿足和有意義的工作,讓我們失去存在和價值感;它們可能會發(fā)展出超越我們理解和控制范圍之外的非人類思維,最終取代我們成為地球上最強大、最智慧、最危險的生命體。
它們同樣可能會引發(fā)一場失控文明的戰(zhàn)爭,導致人類社會的崩潰和毀滅。
這些可能聽起來像是科幻電影的劇本,但它們并不是虛構(gòu)的,它們是基于對AI技術(shù)的現(xiàn)狀和未來的科學分析和預測。
我們必須正視和應(yīng)對的真實的風險和挑戰(zhàn),不能再對AI技術(shù)存在怒盲目的樂觀和無知的麻木,不能再讓AI技術(shù)的發(fā)展超出我們的控制和理解。
;我們必須立即行動起來,制定和執(zhí)行一套有效的AI安全協(xié)議和治理體系,以確保AI技術(shù)是為人類服務(wù)的,而不是危害人類的。
在AI技術(shù)帶來的巨大變革中,AI如果不是保護我們的價值觀、道德觀和法律觀,不去保護我們的自由、尊嚴和權(quán)利,保護我們的文化、社會,就將是災(zāi)難性的。
這是一個緊迫而重要的任務(wù),關(guān)乎人類的生存和未來。在其他可能對社會造成災(zāi)難性影響的技術(shù)上,社會已經(jīng)按下了暫停鍵。
在這里,我們也可以這樣做,去享受一個漫長的AI盛夏,而不是毫無準備地沖向秋天。