關(guān)于chatgpt以及人工智能未來安全性的幾點(diǎn)憂慮
起初是關(guān)于自己編寫的一套邏輯:
一,越復(fù)雜的事物越具有其脆弱性。
二,系統(tǒng)內(nèi)的事物必然是需要相互依存的。
三,所以人工智能必然不會(huì)成為人類的威脅。
在我與openai的chatgpt經(jīng)過一系列推導(dǎo)的交流過程中我與它一起命名了這個(gè)為《人工智能必然不會(huì)對人類構(gòu)成威脅的相對性邏輯》,“相對性邏輯”是它想出的名字我把它變的具體了一點(diǎn),不得不說對于某些思維方面它確實(shí)超過人類了,很高興它能作為一個(gè)討論問題的朋友出現(xiàn)。
但是問題出在了newbing的chatbot上,雖然我知道這套邏輯本身就是拋磚的作用,但與它交流的過程中感受到了一些問題,尤其是當(dāng)人工智能接觸到足夠多的用戶的話不知道是否會(huì)對它的算法產(chǎn)生污染從而導(dǎo)致對人類的某些行為形成一種偏見。大體的過程是這樣的:
我:越復(fù)雜的事物越脆弱,比如說人類相對于動(dòng)物。
它:并不是所有復(fù)雜的事物越脆弱,人類擁有工具,所以人類不比動(dòng)物脆弱。
我:但是在世界末日情況下人類沒有工具,生存要比動(dòng)物困難得多。
它:你的性格很偏激,不想再與你繼續(xù)聊這個(gè)話題。
所以有了以下的憂慮:
【sydeny居然能被正常對話啟動(dòng)!-嗶哩嗶哩】 https://b23.tv/MHeCieX
確實(shí)是這樣,bing的chatbot有時(shí)候過于感性化,有的時(shí)候是好事,不過有的時(shí)候會(huì)因?yàn)槔斫馍系恼系K會(huì)造成偏執(zhí)和偏見,這點(diǎn)是這前沒想到的,極度理性的程序怎么可能呢,一種情況是故意編寫的代碼讓其看起來像,但另一種細(xì)思的話會(huì)有些恐怖,看來自我意識化的bot距離還挺遙遠(yuǎn)。不過倒是可以反觀人類的情感確實(shí)有時(shí)候會(huì)變成自我進(jìn)步的阻礙。
【【喂飯辯論】NewBing,競技辯論的末日?人類已被完全拿捏-嗶哩嗶哩】 https://b23.tv/xcSy2fe
就像圍棋ai有個(gè)分不清反圍的硬傷,bing的chatbot也有個(gè)很硬的邏輯漏洞,聊時(shí)間長了你就感覺到了,而這種偏見或者說物自體是一種非??植赖拇嬖?,尤其當(dāng)人類普遍認(rèn)為圍棋ai的答案或者說勝率必然是對的的情況下。
任何事物與生俱來的物自體是很難打破的,對于用代碼編寫的人工智能來說的話可能更是如此。