- +1
ChatGPT爆火,我們是否可以信任聊天機器人?

chatGPT生成的程序小狗。
近日,一款名為ChatGPT的聊天機器人火遍全球,該機器人的研發(fā)公司OpenAI表示,ChatGPT上線短短5天用戶數(shù)量已突破100萬。在網(wǎng)友們曬出的截圖中,ChatGPT不僅能流暢地與人對話,還能寫代碼、找Bug、做海報、寫年報……甚至還以魯迅的文風進行天馬行空的創(chuàng)作,幾乎無所不能。
ChatGPT并非市面上唯一一款對話型人工智能系統(tǒng)。早在去年的I/O開發(fā)者大會上,谷歌就演示了專門為對話而建立的LaMDA系統(tǒng)。今年春天,一名谷歌工程師甚至表示LaMDA有自己的“意識”。雖然這一說法遭到了許多人的強烈批評,但卻實實在在地抓住了公眾的想象力。
對話型AI有何玄機?
ChatGPT是人工智能研究實驗室OpenAI在11月30日發(fā)布的全新聊天機器人。在OpenAI的官網(wǎng)上,ChatGPT被描述為優(yōu)化對話的語言模型,是InstructGPT的姐妹模型。這個模型以對話的形式進行互動,使得ChatGPT能夠回答后續(xù)問題、承認錯誤、發(fā)出質疑并拒絕不適當?shù)恼埱蟆?/p>
據(jù)澎湃新聞此前報道,ChatGPT采用了和InstructGPT一樣的人類反饋中強化學習(RLHF,Reinforcement Learning from Human Feedback)技術,通過將抹去個人信息的人工注釋添加到訓練集之前,利用這些數(shù)據(jù)來進行模型的微調(diào),達到了提高幫助性和真實性,同時減輕語言模型的危害和偏見的效果。
LaMDA則是谷歌公司在去年5月推出的一款突破性對話應用語言模型技術(The Language Model of Dialogue Applications),谷歌稱其可以參與流動性的自由對話。據(jù)《紐約時報》12月12日報道,LaMDA即人工智能研究人員所稱的神經(jīng)網(wǎng)絡,是一個松散地、仿照大腦中神經(jīng)元網(wǎng)絡的數(shù)學系統(tǒng)。這一技術在谷歌翻譯、自動駕駛等服務中也有使用。
這樣一個神經(jīng)網(wǎng)絡會通過分析數(shù)據(jù)來學習技能,例如,通過在數(shù)以千計的貓咪照片中找出固定模式,從而學會識別一只貓。
5年前,谷歌和OpenAI等實驗室的研究人員開始設計神經(jīng)網(wǎng)絡,分析海量的數(shù)字文本,包括書籍、維基百科、新聞報道和在線聊天記錄,科學家們將它們稱為“大型語言模型”。該技術可以自動生成文本,并結合不同的概念、模仿人們寫的東西。
通過ChatGPT,OpenAI已經(jīng)努力完善了這項技術。ChatGPT不像LaMDA那樣能夠進行自由對話,它被設計得更像是Siri、Alexa這類的數(shù)字助手。不過與LaMDA一樣,ChatGPT是在從互聯(lián)網(wǎng)上摘取的數(shù)字文本的海洋中訓練而成的。
聊天機器人并不總說實話
經(jīng)過海量信息的訓練,ChatGPT這類的聊天機器人能夠很輕易地提供想法、回答問題,但是它們并不總是說實話。它們提供的答案有時真假參半,這導致人們開始擔憂,隨著技術的成熟,這類機器人可能會被利用來傳播假消息和謠言。
一位來自美國弗吉尼亞州的數(shù)據(jù)科學家亞倫·馬格利斯(Aaron Margolis)告訴《紐約時報》,雖然他時常驚異于LaMDA的開放式對話天賦,但它有時候會“胡編亂造”,因為這是一個被互聯(lián)網(wǎng)信息訓練出來的系統(tǒng)。
當馬格利斯要求LaMDA像馬克·吐溫那樣與自己聊天時,LaMDA很快描述了吐溫與李維斯·施特勞斯(Levis Strauss)之間的會面,并說馬克·吐溫在19世紀中期居住在舊金山時曾為李維斯這位牛仔褲大亨工作。這看起來像是真的,但事實是,盡管馬克·吐溫和李維斯同時居住在舊金山,但他們從未一起工作過。
科學家將這種現(xiàn)象稱為“幻覺”——聊天機器人就像一個很會講故事的人,它們有辦法把它們學到的東西重塑成新的東西,但不考慮這些是否真實。
據(jù)澎湃新聞此前報道,ChatGPT在釋出不久后就遭到了Stack Overflow(一個程序設計領域的問答網(wǎng)站)的抵制。Stack Overflow暫時禁止用戶分享ChatGPT生成的回復,因為ChatGPT很容易與用戶互動,能夠快速生成大量答案,這讓網(wǎng)站充斥著許多看似可信但不正確的信息。
OpenAI公司也清楚ChatGPT并不完美。該公司警告稱,ChatGPT偶爾可能會“提供不正確的信息”,“產(chǎn)生有害的指令或有偏見的內(nèi)容”,但OpenAI稱計劃繼續(xù)完善該技術,并提醒用戶“這還只是一個研究項目”。
人工智能將去向何方?
谷歌、Meta等眾多科技公司正在著手解決人工智能的準確性問題。Meta公司最近下線了其聊天機器人Galactica的在線預覽功能,因為它反復產(chǎn)生不正確和帶有偏見的信息。
但仍有專家警告稱,科技公司無法掌控這些技術的命運,像ChatGPT、LaMDA和Galactica這樣的系統(tǒng)是基于多年來自由流傳的想法、研究論文和計算機代碼?!都~約時報》11日評論稱,像谷歌和OpenAI這樣的公司可以以比別人更快的速度推動技術的發(fā)展,但是他們最新的技術已經(jīng)被復制和廣泛傳播,他們無法阻止人們利用這些系統(tǒng)來傳播錯誤信息。
ChatGPT上線后,特斯拉CEO埃隆·馬斯克在社交平臺上表示:“我們離強大到危險的AI(人工智能)不遠了”。作為OpenAI公司的創(chuàng)始人之一,馬斯克顯然無限看好這類新技術的發(fā)展,但是他也不否認,強大的新技術往往伴隨著危險。
人工智能未來將發(fā)展到何種程度尚未可知,但可以確定的是,人工智能的監(jiān)管與控制問題近在眼前。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




