亚洲精品不卡久久久久久_色视频线观看在线 _妽妽夹得我好舒服_国产真人一级a爱做片高潮_亚洲aⅴ无码专区在线观看q

當(dāng)前位置: 首頁 >深度 > 正文

人工智能存在歧視問題 在銀行業(yè)后果可能很嚴(yán)重

2023-06-26 12:25:13 來源:友財(cái)網(wǎng)

【友財(cái)網(wǎng)訊】-人工智能存在種族偏見問題。

從不成比例地錯(cuò)誤識(shí)別黑人和少數(shù)民族面孔的生物識(shí)別系統(tǒng),到無法區(qū)分帶有明顯地區(qū)口音的聲音的語音識(shí)別軟件應(yīng)用程序,人工智能在歧視方面還有很多工作要做。


(資料圖片)

在銀行和金融服務(wù)領(lǐng)域,放大現(xiàn)有偏見的問題可能會(huì)更加嚴(yán)重。

德勤(Deloitte)指出,人工智能系統(tǒng)的好壞最終取決于它們所獲得的數(shù)據(jù):不完整或不具代表性的數(shù)據(jù)集可能會(huì)限制人工智能的客觀性,而訓(xùn)練此類系統(tǒng)的開發(fā)團(tuán)隊(duì)的偏見可能會(huì)使這種偏見循環(huán)持續(xù)下去。

*人工智能可能很笨*

Worldpay加密貨幣和Web3主管納比爾·曼吉(Nabil Manji)表示,了解人工智能產(chǎn)品的一個(gè)關(guān)鍵問題是,該技術(shù)的強(qiáng)度在很大程度上取決于用于訓(xùn)練它的原始材料。

“關(guān)于一個(gè)人工智能產(chǎn)品有多好,有兩個(gè)變量。”曼吉在一次采訪中告訴美國消費(fèi)者新聞與商業(yè)頻道(CNBC),“一是它可以訪問的數(shù)據(jù),二是大型語言模型有多好。這就是為什么在數(shù)據(jù)方面,你會(huì)看到像Reddit和其他公司這樣的公司,他們已經(jīng)公開表示,不會(huì)允許公司抓取他們的數(shù)據(jù),你必須為此向他們付費(fèi)?!?/p>

至于金融服務(wù),曼吉說,許多后端數(shù)據(jù)系統(tǒng)分散在不同的語言和格式中。

“沒有一個(gè)是整合或協(xié)調(diào)的?!彼a(bǔ)充道,“這將導(dǎo)致人工智能驅(qū)動(dòng)的產(chǎn)品在金融服務(wù)領(lǐng)域的效率遠(yuǎn)低于在其他垂直行業(yè)或其他公司的效率,在這些行業(yè)或公司中,它們擁有統(tǒng)一的、更現(xiàn)代的系統(tǒng)或數(shù)據(jù)訪問?!?/p>

曼吉建議,區(qū)塊鏈或分布式賬本技術(shù)可以作為一種更清晰地查看隱藏在傳統(tǒng)銀行混亂系統(tǒng)中的不同數(shù)據(jù)的方式。

然而,他補(bǔ)充說,銀行——作為受到嚴(yán)格監(jiān)管、行動(dòng)緩慢的機(jī)構(gòu)——在采用新的人工智能工具方面,不太可能以與更靈活的科技同行相同的速度前進(jìn)。

“你有微軟(Microsoft)和谷歌(Google),它們?cè)谶^去的一二十年里被視為推動(dòng)創(chuàng)新的力量。他們跟不上那個(gè)速度。然后你會(huì)想到金融服務(wù)。銀行并不以速度快著稱?!甭f。

*銀行業(yè)的人工智能問題*

推特(Twitter)前機(jī)器學(xué)習(xí)道德、透明度和問責(zé)制負(fù)責(zé)人魯曼·喬杜里(Rumman Chowdhury)表示,借貸是人工智能系統(tǒng)對(duì)邊緣化社區(qū)的偏見如何抬頭的一個(gè)主要例子。

喬杜里在阿姆斯特丹Money20/20的一個(gè)小組討論會(huì)上說:“算法歧視在貸款中實(shí)際上非常明顯。芝加哥有拒絕向主要是黑人社區(qū)發(fā)放貸款的歷史。"

20世紀(jì)30年代,芝加哥以“劃紅線”的歧視性做法而聞名,在這種做法中,房地產(chǎn)的信譽(yù)在很大程度上取決于特定社區(qū)的種族人口統(tǒng)計(jì)數(shù)據(jù)。

“芝加哥所有地區(qū)的墻上都會(huì)有一幅巨大的地圖,他們會(huì)在所有主要是非洲裔美國人的地區(qū)劃紅線,不給他們貸款?!彼a(bǔ)充說。

“幾十年后,你正在開發(fā)算法來確定不同地區(qū)和個(gè)人的風(fēng)險(xiǎn)。雖然你可能沒有包括某人種族的數(shù)據(jù)點(diǎn),但這是隱含的。”

事實(shí)上,旨在增強(qiáng)人工智能領(lǐng)域黑人女性權(quán)能的組織“人工智能中的黑人女性”(Black Women in Artificial Intelligence)的創(chuàng)始人安格爾·布什(Angle Bush)告訴CNBC,當(dāng)人工智能系統(tǒng)專門用于貸款審批決策時(shí),她發(fā)現(xiàn)存在復(fù)制用于訓(xùn)練算法的歷史數(shù)據(jù)中現(xiàn)有偏見的風(fēng)險(xiǎn)。

“這可能導(dǎo)致邊緣化群體的個(gè)人被自動(dòng)拒絕貸款,加劇種族或性別差異?!辈际惭a(bǔ)充說。

“銀行必須認(rèn)識(shí)到,將人工智能作為一種解決方案來實(shí)施,可能會(huì)無意中延續(xù)歧視?!彼f。

在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域工作了十多年的開發(fā)人員弗羅斯特·李(Frost Li)告訴CNBC,人工智能集成的“個(gè)性化”維度也可能有問題。

“人工智能的有趣之處在于我們?nèi)绾芜x擇‘核心功能’進(jìn)行培訓(xùn)?!备チ_斯特·李說,他創(chuàng)立并經(jīng)營著Loup,一家?guī)椭诰€零售商將人工智能整合到他們的平臺(tái)上的公司。“有時(shí)候,我們會(huì)選擇與我們想要預(yù)測(cè)的結(jié)果無關(guān)的特征。”

弗羅斯特·李說,當(dāng)人工智能應(yīng)用于銀行業(yè)時(shí),當(dāng)一切都在計(jì)算中錯(cuò)綜復(fù)雜時(shí),很難識(shí)別出偏見的“罪魁禍?zhǔn)住薄?/p>

“一個(gè)很好的例子是,有多少金融科技初創(chuàng)公司是專門為外國人服務(wù)的,因?yàn)橐粋€(gè)東京大學(xué)畢業(yè)生即使在谷歌工作,也無法獲得任何信用卡;然而,人們可以很容易地從社區(qū)大學(xué)信用社獲得貸款,因?yàn)殂y行家更了解當(dāng)?shù)氐膶W(xué)校?!备チ_斯特·李補(bǔ)充說。

生成式人工智能通常不用于創(chuàng)建信用評(píng)分或消費(fèi)者風(fēng)險(xiǎn)評(píng)分。

“這不是這個(gè)工具的初衷?!盩aktile的首席運(yùn)營官尼克拉斯·古斯克(Niklas Guske)說,Taktile是一家?guī)椭鹑诳萍脊咀詣?dòng)化決策的初創(chuàng)公司。

相反,古斯克說,最強(qiáng)大的應(yīng)用程序是預(yù)處理文本文件等非結(jié)構(gòu)化數(shù)據(jù),如分類交易。

“這些信號(hào)可以被輸入到一個(gè)更傳統(tǒng)的承保模式中。”古斯克說,“因此,生成式人工智能將提高此類決策的基礎(chǔ)數(shù)據(jù)質(zhì)量,而不是取代常見的評(píng)分流程?!?/p>

但這也很難證明。例如,蘋果公司和高盛公司被指控給予女性更低的蘋果卡限額。但是,在監(jiān)管機(jī)構(gòu)沒有發(fā)現(xiàn)性別歧視的證據(jù)后,這些指控被紐約州金融服務(wù)局駁回。

根據(jù)歐洲反種族主義網(wǎng)絡(luò)主任金·斯莫特(Kim Smouter)的說法,問題在于證實(shí)基于人工智能的歧視是否真的發(fā)生了,具有挑戰(zhàn)性。

他說:“大規(guī)模部署人工智能的困難之一,是這些決定如何產(chǎn)生的不透明性,以及如果一個(gè)種族化的個(gè)人甚至注意到存在歧視,存在什么補(bǔ)救機(jī)制?!?/p>

“個(gè)人對(duì)人工智能系統(tǒng)如何工作知之甚少,事實(shí)上,他們的個(gè)案可能只是整個(gè)系統(tǒng)的冰山一角。相應(yīng)地,也很難發(fā)現(xiàn)事情出錯(cuò)的具體情況?!彼a(bǔ)充道。

斯莫特引用了荷蘭兒童福利丑聞的例子,其中數(shù)千份福利申請(qǐng)被錯(cuò)誤地指控為欺詐。在2020年的一份報(bào)告發(fā)現(xiàn)受害者“受到制度偏見的對(duì)待”后,荷蘭政府被迫辭職。

斯莫特說,這“證明了這種功能障礙傳播的速度有多快,證明它們并在發(fā)現(xiàn)后得到補(bǔ)救有多困難,同時(shí)造成了重大的、往往是不可逆轉(zhuǎn)的損害?!?/p>

*監(jiān)管人工智能的偏見*

喬杜里說,有必要建立一個(gè)像聯(lián)合國這樣的全球監(jiān)管機(jī)構(gòu),來解決圍繞人工智能的一些風(fēng)險(xiǎn)。

盡管人工智能已被證明是一種創(chuàng)新工具,但一些技術(shù)專家和倫理學(xué)家對(duì)該技術(shù)的道德和倫理合理性表示懷疑。業(yè)內(nèi)人士表達(dá)的最大擔(dān)憂是錯(cuò)誤信息;人工智能算法中嵌入的種族和性別偏見;以及類似ChatGPT的工具產(chǎn)生的“幻覺”。

“我很擔(dān)心,由于生成式人工智能,我們正在進(jìn)入這個(gè)后真相世界,在這個(gè)世界中,我們?cè)诰W(wǎng)上看到的任何東西都不可信——任何文本、任何視頻、任何音頻都不可信,但我們?nèi)绾潍@得我們的信息?我們?nèi)绾未_保信息的高度完整性?”喬杜里說道。

現(xiàn)在是對(duì)人工智能進(jìn)行有意義的監(jiān)管的時(shí)候了——但知道像歐盟人工智能法案這樣的監(jiān)管提案生效需要多長時(shí)間,一些人擔(dān)心這不會(huì)發(fā)生得足夠快。

“我們呼吁提高算法的透明度和問責(zé)制,以及它們?nèi)绾芜\(yùn)行,并呼吁一個(gè)外行人的聲明,允許非人工智能專家的個(gè)人自行判斷,測(cè)試證明和結(jié)果公布,獨(dú)立的投訴流程,定期審計(jì)和報(bào)告,以及在設(shè)計(jì)和考慮部署技術(shù)時(shí)讓種族化社區(qū)的參與?!彼鼓卣f。

斯莫特表示,人工智能法案是此類監(jiān)管框架中的第一個(gè),它納入了基本權(quán)利方法和補(bǔ)救等概念,并補(bǔ)充說,該法規(guī)將在大約兩年內(nèi)實(shí)施。

“如果能縮短這個(gè)時(shí)間,以確保透明度和問責(zé)制是創(chuàng)新的核心,那就太好了?!彼f。

標(biāo)簽:

返回頂部