亚洲一区二区电影_青青操久久_亚洲狠狠婷婷综合久久久久_国产欧美日韩在线观看精品

您當前的位置 :環球傳媒網>科技 > 正文
Twitter聯合發起AI偏見賞金挑戰賽 以讓算法更公平
2022-11-01 09:23:59 來源:金融界 編輯:

人工智能系統已經廣泛存在于我們的日常生活中,但我們可能需要幾個月、甚至數年的時間才能弄清楚它們是否存在偏見,以及是什么樣的偏見。

這帶來了不小的風險:不公平的人工智能系統會導致無辜的人被逮捕,甚至是剝奪他們的住房、工作和基本服務。

最近,一群人工智能和機器學習專家正在發起一場新的偏見賞金挑戰賽,他們希望這項活動可以讓人們更快地發現偏見。

這項賞金挑戰的靈感來自于網絡安全領域的漏洞懸賞,它呼吁參與者創建工具來識別和減輕人工智能模型中的算法偏見。

這場賞金挑戰是由一群志愿者組織的,他們在、Splunk 和 Reality Defender 等科技公司工作,他們自稱為“偏見海盜”。

第一個賞金挑戰集中在圖像檢測中的偏見。這是一個常見的問題:有缺陷的圖像檢測系統偶爾會將黑人誤認成猩猩。

參與者將面臨的挑戰是要建立一個機器學習模型,該模型可以標記每張圖像的膚色、性別和年齡組,這將使其更容易量化和捕捉數據集中的偏見。

他們將使用大約 1.5 萬張合成的人臉圖像作為比賽用數據集。

參與者將根據模型標記圖像的準確性、代碼運行時間以及其他指標進行排名,挑戰賽將于 2022 年 11 月 30 日結束。

和初創公司 承諾為冠軍提供 6000 美元獎金,亞軍和季軍也將分別獲得 4000 美元和 2000 美元。已經為第一批參賽者提供了價值 5000 美元的算力支持。

這場挑戰賽代表了人工智能領域的一個新興行業:算法偏見審計。

在 2021 年推出了第一個人工智能偏見懸賞,斯坦福大學剛剛結束了其第一個人工智能審計挑戰。與此同時,非營利組織 Mozilla 也在為人工智能審計師創造工具。

這些審計工作很可能會變得越來越普遍。它們被監管機構和人工智能倫理專家稱贊為“讓人工智能系統承擔責任”的好方法,而且它們也將成為國家或地區的法律要求。

歐盟新出臺的內容審核法《數字服務法》,包括對大型技術平臺使用的數據和算法進行年度審計,而歐盟另一項即將出臺的人工智能法案也可能允許當局對人工智能系統進行審計。

美國國家標準與技術研究所(National Institute of Standards and Technology,NIST)也推薦將人工智能審計作為一項黃金標準。

在布魯金斯學會研究人工智能治理的亞歷克斯·恩格勒(Alex Engler)表示,我們的想法是,這些審計工作將像我們在其他高風險行業看到的審計一樣行事,比如在化工和建筑行業。

算法審計專家黛博拉·拉吉(Deborah Raji)在一篇發表于 2021 年 6 月的論文中表示,目前的問題是沒有足夠的獨立承包商來滿足即將到來的算法審計需求,企業也不愿向第三方開放自己的系統。

這就是這些賞金挑戰想要塑造的東西。人工智能社區寄希望于,這些活動能夠引導更多的工程師、研究人員和專家來發展所需的審計技能并積累經驗。

到目前為止,對人工智能的有限審計努力要么來自學者,要么來自科技公司本身。這類挑戰賽的目的是創建一個專門審計人工智能的新領域。

“我們正試圖給對這種工作感興趣的人創建一個新空間,有的人想從零開始,也有人已經非常有經驗但不想在科技公司工作,”魯曼·喬杜里()說,她在負責機器學習的道德、透明度和問責方面的工作,也是“偏見海盜”的領導者。

她說,這些人可能包括想要學習一種新技能的黑客和數據科學家。“偏見海盜”團隊希望這項挑戰賽能開創此類比賽的先河。

非營利性人工智能研究實驗室的負責人薩拉·胡克()說,這樣的挑戰賽不僅創造了機器學習社區進行算法審計的動機,而且促進了“最好的審計方法,以及應該投資哪種類型的審計”的發展。

蒙特利爾人工智能倫理研究所的創始人阿比謝克·古普塔()說,“我們對系統的關注越多,我們就越有可能發現存在缺陷的地方。”

關鍵詞: 對不公平型AI說不 Twitter聯合發起AI偏見賞金挑戰賽 AI偏見賞金挑戰賽 AI偏見賞金

分享到:
版權和免責申明

凡注有"環球傳媒網"或電頭為"環球傳媒網"的稿件,均為環球傳媒網獨家版權所有,未經許可不得轉載或鏡像;授權轉載必須注明來源為"環球傳媒網",并保留"環球傳媒網"的電頭。

Copyright ? 1999-2017 cqtimes.cn All Rights Reserved 環球傳媒網-重新發現生活版權所有 聯系郵箱:8553 591@qq.com