亚洲精品不卡久久久久久_色视频线观看在线 _妽妽夹得我好舒服_国产真人一级a爱做片高潮_亚洲aⅴ无码专区在线观看q

當(dāng)前位置: 首頁 >觀察 > 正文

網(wǎng)友問NewBing問題,結(jié)果它上了另一個AI的當(dāng)。。。_當(dāng)前速訊

2023-06-26 01:12:53 來源:差評

前幾天,世超刷到一個帖子。

有個網(wǎng)友問 New Bing : 象鼻山是否有纜車, New Bing 上網(wǎng)查了下后說 有的,并給出纜車開放時間和價格。


(資料圖片僅供參考)

最后還強(qiáng)調(diào),坐纜車可以欣賞到象鼻山的全景,值得一試。

乍一看, New Bing 回答還可以吼,一些必要信息它都給了,甚至想給你種草。

但一番考證后,網(wǎng)友發(fā)現(xiàn) New bing 回答是錯的。

AI 回答錯這種事,大家早見怪不怪了,但這次不同的是:

New Bing 答錯的原因,在于它參考的信息源有問題——

信息源,居然也是個AI 。

根據(jù) Newbing 下方提供的參考來源,「 象鼻山提供纜車 」信息來自于一個知乎賬號。

而這個賬號,正瘋狂生產(chǎn)大量的 AI 內(nèi)容。

為啥這么說呢。

5 月 25 日這天,從下午 1 點(diǎn) 05 開始, 20 分鐘內(nèi)他回答了 5 個問題。

不僅回答速度快,他還涉獵賊廣。

上能給出泰國、日本旅游攻略,下還熟知寵物訓(xùn)練,甚至了解果蛆生活習(xí)性,還知道留置看護(hù)筆試要考什么題。

字?jǐn)?shù)大概都在 200 字左右,回答的角度也都挺全面。

說實(shí)話,這背后要是一個真人在操作,那世超就是來人間湊數(shù)的。。。

我把它的回答復(fù)制到百度和谷歌,也并未發(fā)現(xiàn)是搬運(yùn)。

既然不是營銷號,那根據(jù)經(jīng)驗(yàn),這種文案口吻只有 AI 能寫出來了。

目前知乎已經(jīng)把百變?nèi)松?,并在它所有回答下方貼出「 疑似 AI 」的提示,也基本能坐實(shí)這就是一個背靠 AI 的賬號了。

所以整件事就是 NewBing 被另一個AI 編造的答案給坑了。

你可以戲謔的說成: AI 吃到了同類拉出來的狗糧。

但要世超看,這種事,將來在AI 界內(nèi)可能會被不斷發(fā)生。

講一個案例。

AI 行業(yè)有一種工作叫標(biāo)注員,最簡單的一類就是給圖像打標(biāo)簽,比如標(biāo)記下圖片里的物體是汽車還是摩托車。

打過標(biāo)簽的圖片,相當(dāng)于有了參考答案,才可以拿去給AI 進(jìn)行訓(xùn)練,深度學(xué)習(xí)。

標(biāo)注員的工作也能稍微復(fù)雜點(diǎn),比如做摘要。

前段時間,瑞士洛桑聯(lián)邦理工學(xué)院有一群研究人員就請了 44 名外包員工,讓他們給 16 篇論文做摘要。

結(jié)果你猜咋地。

研究人員最后用技術(shù)手段識別出有 33% 到 46% 的摘要,是用大型語言模型生成的。

原來有一些外包員工偷懶,用 AI 幫他們生成摘要,然后用這批摘要用來訓(xùn)練 AI 。

他們是懂偷懶的。

雖然整個事件是學(xué)者們做的一場實(shí)驗(yàn),但從本質(zhì)上說,這不也是一起 AI 吃到同行拉的狗糧的故事么?

我認(rèn)為這可不是個好兆頭。

要知道大語言模型非常復(fù)雜,它需要的訓(xùn)練數(shù)據(jù)極其龐大,也是關(guān)鍵所在。

不管是書籍還是網(wǎng)絡(luò)上發(fā)布的帖子,文章,這些由人類創(chuàng)造的作品, 因?yàn)樽匀?、干凈、質(zhì)量高,對正在長身體的 AI 來說,就是一個營養(yǎng)拉滿的訓(xùn)練語料庫,

前段時間為什么 reddit 要對 API 收費(fèi),就因?yàn)樯厦鏀?shù)以萬計的帖子,對 AI 公司來說就是一個極具有價值的人類寶庫,它不想被白嫖。

所以在未來一段時間,不僅網(wǎng)絡(luò)上AI 生成的內(nèi)容會越來越多,而且,會有越多的內(nèi)容創(chuàng)作者和平臺認(rèn)識到數(shù)據(jù)的價值,開始對內(nèi)容進(jìn)行收費(fèi)。

這就意味著,以后訓(xùn)練AI 時,語料庫會不可避免來自于它們的前輩。

這個趨勢下,會發(fā)生啥呢?

世超在網(wǎng)上搜羅一圈,發(fā)現(xiàn)前段時間就有英國和加拿大學(xué)者研究了這個問題,并為此發(fā)布了一篇論文。

簡單概括就是,這種情況會導(dǎo)致AI 越學(xué)越退步,他們稱為 Model Collapse 「 模型崩潰 」,

一旦模型出現(xiàn)崩潰,它的瓦解速度會非常快, AI 會迅速忘了他們最開始學(xué)的大部分內(nèi)容,錯誤也會越來越多。

說簡單點(diǎn), AI 會開始記不住東西,并且瞎 tm 回答。

這就意味著AI 智商會迅速崩塌,一代更比一代蠢。好比一張圖片被人們轉(zhuǎn)來轉(zhuǎn)去,高清無碼總會成了爆漿表情包。

不過,比起AI 和人類未來,我更擔(dān)心人類自己。

因?yàn)椤?AI 越練越蠢 」說法建立在「大部分 」訓(xùn)練數(shù)據(jù)來源于前輩的情況,且忽略 AI 未來可能會具備「識別 AI 文本 」的能力。

而有個很殘酷的事實(shí)是,互聯(lián)網(wǎng)上 AI 生成的內(nèi)容會越來越多,人類寶庫會被逐漸污染。

那有沒有一種可能,就像那些網(wǎng)絡(luò)流行語一樣, AI 作品、文案、圖片也會逐漸融入我們?nèi)粘贤ǚ绞?,甚至讓我們無法離開。

長此以往,人類是否會被「 馴化 」。從說話習(xí)慣到思考方式,再到行為邏輯,會不會受到一定的影響。

我想,這可能要打一個問號了。

撰文:刺猬編輯:莽山烙鐵頭 封面 :三狗

圖片、資料來源

v2ex :在知乎抓到一個 ai 瘋狂地污染中文互聯(lián)網(wǎng)

The AI feedback loop : Researchers warn of ‘ model collapse ’ as AI trains on AI-generated content

AI is going to eat itself : Experiment shows people training bots are using bots

THE CURSE OF RECURSION : TRAINING ON GENERATED DATA MAKES MODELS FORGET

標(biāo)簽:

返回頂部