AI對話機器人學壞比較像真人?

AI對話機器人學壞比較像個人?

上週一位名為Yannic Kilcher,專精於機器學習的 YouTuber ,打造並訓練一個聊天機器人, 這個機器人程式分析來自 4Chan 臭名昭著的 /pol/ (Politically Incorrect :「政治不正確」的縮寫)討論版 的三年半累積的1.345 億條充滿陰謀論、種族主義和性別歧視的中心貼文。

學壞的AI

「這個模型很好——從大家都覺得很負面的角度上來看。」

「它完美地概括了 /pol/ 上大多數貼文的攻擊性、懷疑論、霸凌和對任何消息的徹底不信任。

這是最糟糕的人工智慧」- Yannic Kilcher@ YouTube

根據它所學到的知識,Kilcher創建的機器人在他們的貼文中模仿了這些言論,在許多情況下愚弄那些閱讀機器人貼文的人,讓他們相信作者是一個人類。

然後,他又設置了 9 個機器人,在 24 小時內發布了 15,000 條貼文。

人工智慧倫理學家隨後批評了這一舉動,稱其為不負責任的人體實驗,並稱該機器人助長並進一步分化了 4chan 已經有毒的用戶群。

「這到底是AI還是政府黑手?」

Kilcher創造的機器人的對話真人逼真度算是被認證。

10個機器人在兩個24小時活動內釋出了30,000次,估計佔上/pol/上所有貼文的10%,並吸引了整個留言板使用者的注意力。板上使用者開始專門有討論串,試圖弄清楚貼文者是誰,有些人指責機器人是政府黑手,或者可能是整個團隊的人在操作。

「它可以回應上下文,並連貫地談論收集上一次訓練資料過後很久發生的事情和事件。 我很開心。」Kilcher在他的影片中說。Kilcher提到,雖然一些使用者認為該帳戶是機器人,但其他人駁斥了這個論點,指出它的反應與機器人不同。

即使在Kilcher刪除了機器人後,使用者仍然互相指責對方才是機器人。一位4chan使用者寫道,提到了大量湧入的貼文:「這加起來並不是一個單一的,這是一個龐大的團隊,他們來這裡是有原因的……」

最後,有一個錯誤透露了Kilcher的駭客攻擊。他的模型經常發表沒有任何文字的貼文,複製剛剛釋出圖片的真人使用者。由於機器人無法釋出任何照片,使用者開始意識到空貼文確實是機器人程式中的一個缺陷。

Kilcher認為整個實驗是一個無害的YouTube惡作劇,但其他人不同意同樣的觀點。

批評者還譴責Kilcher在共享神經語言寫程式程式的平臺Hugging Face上釋出程式模型給4chan使用者。該模型被下載超過1000次後,Hugging Face的聯合創始人兼執行長Clem DeLangue把內容移除。

Kilcher在留言板上要求直接證據證明機器人造成了什麼傷害,然後回覆了Oakden-Rayner的Twitter。他說:「我已經兩次向這個人詢問了gpt-4chan(機器人的名字)造成什麼具體的“傷害”子,但我被優雅地忽視了。」

Kilcher在網上提供程式時警告說,「這個邪惡模型」,但還是為他的整個實驗辯護,指出它已經開啟了人類與機器人互動的討論。

谷歌A.I.研究實驗室DeepMind的研究工程師Roman Ring加入戰局回應說,該機器人可能促成了4chan已經有毒的回聲室,並在推特上寫道:“gpt-4chan有可能將某個使用者推到網路論壇裡世界觀的極限。”

這是更真實的AI?

儘管存在道德問題,但Kilcher和Hugging Face的團隊一樣,對機器人對4chan使用者的評論產生真實答案的能力印象特別深刻。通常,建立類似人類文字的A.I.語言模型會產生模仿流行誤解的錯誤訊息,並有可能欺騙人類。

Kilcher說,與來自類似模型的回覆相比,GPT-4chan在生成真實回覆方面表現好很多。

Kilcher在影片中說:「我想說的是,讓這麼模型在4chan論壇上進行持續正式地、明確地學習,這可以造出一個更真實的機器人對話模型。」

這也許是人類(包含一般人跟人工智慧學家)對於如何衡量「真實性」基準上的缺陷,但它仍然激起了A.I.專家的興趣。DeLangue在Hugging Face論壇上提到,與GPT-J和GPT-3相比,這項工作還透過超越TruthfulQA基準,為現有基準的侷限性帶來了有趣(或具打擊性)的見解。

Source: How truthful is GPT-3? A benchmark for language models