黑人大群体交免费视频,国精产品一区二区三区糖心,孩交videos精品乱子,欧美奶涨边摸边做爰视频

首頁 > 購物 > 正文

聊天機器人大行其道,相關(guān)道德風險也越來越大 焦點資訊

2023-03-27 08:51:28來源:36kr

除了信息泄露,ChatGPT還存在哪些問題?

神譯局是36氪旗下編譯團隊,關(guān)注科技、商業(yè)、職場、生活等領(lǐng)域,重點介紹國外的新技術(shù)、新觀點、新風向。

編者按:3 月 24 日,OpenAI 發(fā)布聲明,就 ChatGPT 致用戶信息泄露一事道歉,有關(guān)此類大型語言模型的風險和弊端再次顯露在人們面前。除了隱私泄露的問題,多年來,研究人員還一直警告說,文本生成算法可能會產(chǎn)生有偏見的和虛假的信息。但科技巨頭們還是急于將其應(yīng)用于產(chǎn)品中。本文來自編譯,希望對您有所啟發(fā)。

ILLUSTRATION: JAMES MARSHALL


(相關(guān)資料圖)

去年年底,在 OpenAI 的聊天機器人 ChatGPT 發(fā)布后的幾周內(nèi),谷歌 AI 首席執(zhí)行官杰夫·迪恩(Jeff Dean)就表示了,擔心過快部署對話式搜索引擎可能會給 Alphabet 帶來聲譽風險。但今年谷歌還是發(fā)布了自己的聊天機器人 Bard,并在第一次演示中犯了一個“關(guān)于詹姆斯·韋伯太空望遠鏡”的事實錯誤。

在同一時期,微軟將基于 ChatGPT 的技術(shù)整合到了必應(yīng)搜索引擎中。微軟負責人工智能的負責人莎拉·伯德(Sarah Bird)承認,雖然該技術(shù)仍然可以“幻化”出不真實的信息,但它已變得更加可靠了。在接下來的幾天里,必應(yīng)還聲稱跑步是 18 世紀發(fā)明的,并試圖說服一名用戶今年是 2022 年。

亞歷克斯·漢納(Alex Hanna)在這些事件中看到了一個熟悉的模式:將人工智能迅速商業(yè)化的經(jīng)濟激勵,已經(jīng)超過了對安全或道德的擔憂。漢納曾在谷歌的道德人工智能團隊工作,現(xiàn)在是非營利組織“分布式人工智能研究中心”(Distributed AI research)的研究主管。他說,在責任或安全方面下功夫賺不到多少錢,但對技術(shù)的過度炒作卻能帶來很多好處。

制作大型語言模型的競賽(用網(wǎng)絡(luò)上的大量數(shù)據(jù)訓練人工智能系統(tǒng)),以及將倫理作為人工智能設(shè)計過程核心部分的運動,幾乎是在同一時間開始的。2018 年,谷歌推出了語言模型 BERT,不久之后,Meta、微軟和英偉達也發(fā)布了基于人工智能的類似項目。同樣在 2018 年,谷歌表示要重視人工智能倫理,據(jù)稱將限制未來的項目。自那時起,研究人員就警告說,大型語言模型帶有高度的道德風險,可能會輸出有毒和仇恨的言論。此外這些模型也有捏造事實的傾向。

隨著初創(chuàng)公司和科技巨頭開始試圖打造 ChatGPT 的競爭對手,一些業(yè)內(nèi)人士懷疑,ChatGPT 是否已經(jīng)改變了人們的觀念,讓人們已經(jīng)沒那么在意人工智能道德風險了,轉(zhuǎn)而認為可以隨時部署強大到足以生成逼真文本和圖像的人工智能。

在過去幾年中,OpenAI 發(fā)布模型的過程已經(jīng)發(fā)生了變化。高管們表示,由于擔心濫用問題及其對社會的影響,文本生成器 GPT-2 于 2019 年在幾個月內(nèi)分階段發(fā)布(一些人批評這一策略是一種宣傳噱頭)。2020 年,其更強大的繼任者 GPT-3 的訓練過程被公開記錄,但不到兩個月后,OpenAI 開始通過面向開發(fā)人員的 API 將該技術(shù)商業(yè)化。到 2022 年 11 月,ChatGPT 的發(fā)布過程不包括任何技術(shù)論文或研究出版物,只有一篇博客文章、一個演示,以及很快隨之而來的訂閱計劃。

開源人工智能初創(chuàng)公司 Hugging Face 的政策總監(jiān)艾琳·索萊曼(Irene Solaiman)認為,外部壓力有助于讓 ChatGPT 等人工智能系統(tǒng)承擔責任。她正在與學術(shù)界和工業(yè)界的人士合作,為非專家提供對文本和圖像生成器進行測試的方法,以評估偏見和其他問題。索萊曼說,如果外部人員能夠探測人工智能系統(tǒng),企業(yè)將不再有借口避免測試輸出偏差或氣候影響等問題。索萊曼此前曾在 OpenAI 工作過,致力于降低系統(tǒng)的“毒性”。

索萊曼說,每次評估都只是一個了解人工智能模型的窗口,而并不代表它每次都一模一樣地執(zhí)行和輸出同樣的信息。但她希望能夠識別和阻止人工智能造成的傷害,因為令人擔憂的案例已經(jīng)出現(xiàn),包括游戲《AI Dungeon》的玩家使用 GPT-3 生成描述涉及兒童的性場景的文本。索萊曼說:“這是一個極端的例子,我們不能讓這種情況發(fā)生?!?/p>

索萊曼在 Hugging Face 的最新研究發(fā)現(xiàn),大型科技公司對 2018 年至 2022 年發(fā)布的生成式模型采取了越來越封閉的方式。Alphabet 的人工智能團隊和 DeepMind 加速了這一趨勢,在 GPT-2 分階段發(fā)布后,人工智能領(lǐng)域的其他公司也更廣泛地加入到了這一趨勢中。索萊曼說,那些把自己的突破當作商業(yè)機密來保護的公司,也會讓資源匱乏的被邊緣化的研究人員更難接觸到人工智能的前沿。

隨著越來越多的資金投入到大型語言模型中,封閉式發(fā)布正在扭轉(zhuǎn)整個自然語言處理領(lǐng)域歷史上的趨勢。畢竟研究人員歷來都會分享有關(guān)訓練數(shù)據(jù)集、參數(shù)權(quán)重和代碼的細節(jié),以提高結(jié)果的可重復(fù)性。

斯坦福大學博士亞歷克斯·塔姆金(Alex Tamkin)的工作重點就是大型語言模型,他說:“我們對‘數(shù)據(jù)庫系統(tǒng)是在什么基礎(chǔ)上訓練的,以及它們是如何評估的’相關(guān)知識了解越來越少,尤其是對于作為產(chǎn)品發(fā)布的最強大的系統(tǒng)。”

他認為,人工智能倫理學領(lǐng)域的人提高了公眾意識,讓他們意識到,當技術(shù)部署到數(shù)十億人身上時,快速行動和打破常規(guī)是危險的。如果近年來沒有這項道德工作,情況可能會更糟。

2020 年秋天,塔姆金與 OpenAI 的政策總監(jiān)邁爾斯·布倫戴奇(Miles Brundage)共同主持了一場關(guān)于“大型語言模型的社會影響”的研討會??鐚W科小組強調(diào),行業(yè)領(lǐng)導(dǎo)者需要制定道德標準,并在部署前進行偏見評估,并避免某些用例。

塔姆金認為,外部人工智能審計服務(wù)需要與基于人工智能的公司一起發(fā)展,因為內(nèi)部評估往往達不到要求。他認為,包括社區(qū)成員和其他利益相關(guān)者在內(nèi)的參與式評估方法,可以提高對創(chuàng)建人工智能模型的民主參與。

密歇根大學人工智能倫理和政策中心的研究主任莫維·??瓶耍∕erve Hickok)表示,試圖讓公司擱置或戳破人工智能炒作,規(guī)范自己,并采用道德原則是不夠的。她說,保護人權(quán)意味著從“討論什么是道德的”轉(zhuǎn)向“討論什么是合法的”。

??瓶撕蜐h納都在關(guān)注歐盟今年將敲定的《人工智能法案》(AI Act),看看它如何看待生成文本和圖像的模型。??瓶苏f,她特別感興趣的是,歐洲立法者如何處理涉及“谷歌、微軟和 OpenAI 等公司創(chuàng)建的模型”的損害責任。

希科克說:“有些事情需要強制執(zhí)行,因為我們一次又一次地看到,如果不強制執(zhí)行,這些公司就會繼續(xù)打破常規(guī),繼續(xù)追求利潤,而不管人們的權(quán)利和社區(qū)的利益?!?/p>

在布魯塞爾討論政策的同時,AI 的相關(guān)風險仍然很高。在 Bard 出現(xiàn)演示錯誤的第二天,Alphabet 的股價下跌了大約 1000 億美元的市值。漢納說:“這是我第一次看到因為如此大規(guī)模語言模型的錯誤,而造成的財富損失?!辈贿^,她并不認為這將說服該公司放慢其急于讓產(chǎn)品上市的步伐,“我的猜測是,演示錯誤不會真的成為一個警示故事。”

譯者:Jane

關(guān)鍵詞:

責任編輯:hnmd004