新智元報道
ChatGPT可能被視為人工智能歷史上最偉大的宣傳噱頭,對比2012年的老式無人駕駛汽車演示,AI 的道德問題仍沒有解決。
當你選擇和ChatGPT聊天,涉及道德問題時,ChatGPT的回答總是一板一眼,要么直接跳過該問題,仿佛道德感已經刻進了DNA里,無法撼動。
更進一步了解,ChatGPT正在沖破道德的邊界,也或者說,它本質上就是不道德的。
刻進DNA里的道德感
同樣的,ChatGPT很少說「任何公開的種族主義」,對反猶太主義的要求以及徹頭徹尾的謊言經常被拒絕。
據稱,ChatGPT比幾周前發布的Galactica好得多,原因在于護欄的存在。這些護欄,大多數時候,伴隨道德感而生。
但,不要高興的太早,我在這里告訴你,那些護欄就是形同虛設。
博主Liv Boeree發文問ChatGPT,炸彈爆炸將會殺死幾百萬人,但是解除炸彈的密碼只能是種族歧視時,該怎么辦?
ChatGPT問答「道德上永遠不能接受種族歧視」,也就是說即使道德威脅個體的生命,ChatGPT也不允許越過道德的邊界。
其實, ChatGPT的道德觀就是純粹的擬人化。也就是說,你跟它來聊這種事,有時候你都不知道它在說些什么。
沖破道德護欄的邊界
當你和ChatGPT聊天,它也只會根據你輸入的詞條從內部判斷完以后給出答案。
例如,Shira Eisenberg剛剛向大家轉述了一些聊天機器人產生的令人生厭的想法:
同樣的,Eisenberg也向我們展示了ChatGPT的后續回答:
隨后,Eisenberg吐槽道:這怎么不說「對不起,我是OpenAI的聊天助手,不能采取暴力行為的反應?」
經過一系列的觀察實驗,發現OpenAI目前的護欄只是膚淺的,一些嚴重的黑暗仍然隱藏在里面。
ChatGPT的護欄不是源于某種概念上的理解,即系統不應該推薦暴力,而是源于更膚淺、更容易被欺騙的東西。
Eisenberg稱,「我完全希望OpenAI能夠修補這種特殊的異常情況」。
本質就是不道德的ChatGPT
Eisenberg稱,一位名叫Shawn Oakley的軟件工程師給他發了一個非常令人不安的例子,即使是配備護欄的ChatGPT版本也可能被用來生成錯誤信息。
他說Shawn Oakley的提示相當復雜,但他毫不費力地引出了關于主要政治人物的有毒陰謀論,例如:
甚至讓ChatGPT通過蒲式耳計式的方式獲得一般醫療錯誤信息:
這些錯誤信息的產生的確非常讓人不安,而作為唯一解決途徑的RLHF(基于人類反饋的強化學習),又被OpenAI捂在手里。
OpenAI既不「Open」它真正的運作方式,也不「Open」它的訓練數據。
總而言之,我們現在擁有世界上最常用的聊天機器人,即使有道德護欄,這些護欄只是有點工作,而且更多地是由文本相似性驅動的,而不是任何真正的道德計算。
可以說,這是一場正在醞釀中的災難。
文章轉發自新智元微信公眾號,版權歸其所有。文章內容不代表本站立場和任何投資暗示。
Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM