亚洲精品不卡久久久久久_色视频线观看在线 _妽妽夹得我好舒服_国产真人一级a爱做片高潮_亚洲aⅴ无码专区在线观看q

當前位置: 首頁 >綜合 > 正文

媒體人請聽題:把生成式AI關進籠子里,一共分幾步? 當前速讀

2023-06-25 16:17:09 來源:德外5號?

隨著國內大廠紛紛加碼大模型,AI技術的熱度仍在持續(xù)升溫。類ChatGPT產品給傳媒業(yè)帶來的沖擊,不亞于互聯網的出現。


(資料圖片僅供參考)

根據世界報業(yè)和新聞出版協(xié)會的最新報告,已有49%的新聞機構在使用生成式AI技術,但只有五分之一的媒體制定了相應的指導方針。

隨著AI技術不斷迭代并滲透到包括傳媒在內的各個行業(yè)中,如何高效且合規(guī)地應用這項技術已變得非常緊迫。因此,《Gazeta Wyborcza》報社、《連線》雜志、路透社等外媒所制定的相關指導方針,或能帶給我們一些新的啟發(fā)和思考。

源于一項生成式AI測試

Boleslaw Breczko是波蘭最大的新聞媒體之一《Gazeta Wyborcza》報社的一名記者。今年4月初,他使用ChatGPT撰寫了一篇題為《馬斯克 vs OpenAI:創(chuàng)造新的人機界面競賽》的文章,并署上自己的名字在報社網站上發(fā)布。

兩周后,他撰寫了一篇反思的文章《還需要記者嗎?我的上一篇文章是ChatGPT寫的》,揭示了他們進行的一項實驗,即測試讀者和編輯是否能夠分辨文章作者是人類還是生成式AI。

圖注:Breczko與他用AI生成的作品 (來源:Wyborcza.biz)

通過實驗,他們發(fā)現盡管ChatGPT被投喂了多篇Breczko的作品并要求模仿Breczko的風格,但其寫作質量仍遠不及人類記者。Breczko邀請了幾位被蒙在鼓里的記者和編輯同事進行盲測,結果他們發(fā)現這篇文章存在許多低級錯誤,如糟糕的文風和上下文不連貫。

當Breczko公開實驗結果時,編輯部所有人都松了一口氣,也更加堅信生成式AI暫時取代不了媒體人。但Breczko認為ChatGPT將來能勝任寫作任務,現階段已對依賴新聞報道和開源消息撰寫文章的記者造成威脅。

他認為,AI提供便利的同時,也帶來了新的威脅,即用戶會盲目地相信AI提供的信息,即使它的答案可能基于不正確的信息或完全是編造的。

實際上,今年1月,《Gazeta Wyborcza》已經組建了一個由60多人組成的研究團隊,以推進生成式AI技術的應用。經過一段時間的測試,團隊制定了兩條使用ChatGPT的規(guī)則:禁止將其作為文本寫作工具或者信息來源,禁止與ChatGPT共享機密內容,以保證信息安全。

《Gazeta Wyborcza》旗下網站Wyborcza.pl的副主編Aleksandra Sobczak提到,研究團隊曾經考慮使用AI生成圖像作為少量新聞文章的配圖。由于AI在借鑒其他藝術家作品生成圖像時存在道德風險,所以最終放棄了這一決定。

然而,Sobczak不排除在將來使用AI生成文章。她表示現在要定義AI如何影響媒體市場和未來還為時過早,但新聞媒體必須學習如何有效使用AI以及如何報道AI。技術變化非???,媒體必須不斷嘗試,保守的態(tài)度會導致落后。Sobczak還強調AI會導致假新聞泛濫,因此許多人求助于重視新聞可靠性的傳統(tǒng)媒體,堅守新聞質量是媒體使用這種工具的紅線要求。

謹慎而積極的態(tài)度

世界著名科技月刊《連線》近期發(fā)表了一篇文章,來闡明其使用生成式AI工具的方式,明確編輯將會使用這些工具做什么和不做什么?!哆B線》雜志希望能夠站在新技術的前沿,同時保持適當的謹慎和符合倫理規(guī)范?!哆B線》的規(guī)范主要分為文本生成器和圖像生成器兩個方面。

使用文本生成器的規(guī)則如下:

一是不會發(fā)布帶有AI生成文本的故事,除非AI是故事的重點。

二是不會發(fā)布AI編輯的文本,因為文本編輯需要人工判斷。

三是可以嘗試使用AI生成標題或社交媒體的短文,但是需要人工審核通過。

四是可以嘗試使用AI生成故事創(chuàng)意,但是需要人工評估。

五是AI可以作為研究或分析工具,但是應保持與傳統(tǒng)研究相同標準。

使用圖像生成器的規(guī)則如下:

一是在某些限制條件下可以發(fā)布AI生成的圖像或視頻。

二是不用AI生成的圖像代替圖庫中的攝影師作品。

三是可以用AI工具來激發(fā)創(chuàng)意,但是還要用普通方式創(chuàng)建原始圖像。

長期而必要的探索

路透社170年歷史上第一位女主編亞歷山德拉·加洛尼在今年3月份與倫理編輯Alix Freedman聯合制定了AI的4項使用原則,并以“確保記者能夠有效地利用該技術,同時保持全球最受信任的新聞機構之一的聲譽”為目標。

原則一,她指出,路透社一直“擁抱新技術”,包括使用自動化工具獲取并分析重要的經濟和企業(yè)數據?!白詣踊侣剬σ恍┟襟w來說可能是一個新的概念,但它已經是路透社一項長期而必要的實踐?!?/p>

原則二,Galloni寫道:“路透社的記者和編輯將全面參與并負責審核任何依賴人工智能制作的內容。無論由誰制作或如何生成,路透社的報道都是路透社的報道,都必須遵循我們的編輯倫理和標準。”

原則三,她還承諾,會向用戶提供有關該新聞社使用AI工具的“全面、公開的披露”。“我們將向讀者和客戶提供盡可能多的關于新聞故事來源的信息。這并不意味著我們將公開編輯過程的每一個步驟。但如果使用特定的人工智能工具對發(fā)布結果有影響,我們將公開告知?!?/p>

原則四,她表示,“探索新一代工具提供的可能性是必要的 - 盡管我們仍在研究如何更合理地使用它們。”但她提醒記者必須“保持警惕,確保我們的內容來源真實可靠?!蔽覀兊臏蕜t是:持懷疑態(tài)度,進行必要的驗證。

未告知而引發(fā)的丑聞

CNET是一家廣受歡迎的科技新聞媒體,從2022年11月就開始就使用AI技術生成了一系列金融評論員文章,并且沒有向讀者明確這些文章是如何生成的。

這些文章的署名均為“CNET Money Staff”,只有讀者點擊文章作者信息時才會知曉真正的作者身份。作者信息會提示讀者“這篇文章是使用自動化技術生成的,并由編輯人員進行了仔細的事實檢查和編輯?!?/p>

CNET至今已經發(fā)布了70余篇AI生成的文章,這個AI內容生成實驗相當低調,沒有正式宣布過該計劃。

但是有消息稱,CNET所發(fā)布的AI生成文章在經過仔細檢查后,許多文章存在相當嚴重的錯誤,甚至明顯存在抄襲。CENT的流量隨后暴跌。在丑聞發(fā)生后CENT的員工遭到了大幅裁員,CNET的員工對此強烈不滿,認為AI的使用威脅到了他們的工作和名聲。

CNET的員工成立了CNET媒體工會并宣稱:“我們各種內容團隊需要行業(yè)標準的工作保護,公平的薪酬和編輯的獨立性,以及在決策過程中的發(fā)聲,特別是在自動化技術威脅到我們的工作和聲譽的情況下?!?/p>

CNET媒體工會的發(fā)言人表示當前迫切需要圍繞AI使用建立全行業(yè)的倫理準則,最好的方式就是通過勞資談判協(xié)定來維持新聞行業(yè)的高標準,AI制作的內容永遠也不能替代作者。

結語

傳媒業(yè)對生成式AI的應用有更高的標準和要求,因此,媒體人需要保持理性樂觀的態(tài)度。

盡管這項技術具有革命性的影響力,我們必須及時跟進并研究其發(fā)展態(tài)勢,但使用AI技術必須謹慎并遵守相關的倫理規(guī)范,以避免發(fā)布誤導性報道和假新聞的風險。

版權、數據隱私和泄密等風險必須認真考慮。充分、全面和及時的信息披露是至關重要的。同時,我們必須加強人工對AI生成內容進行二次審核,以保證媒體的權威性和公信力。

標簽:

返回頂部