導(dǎo)語:亞馬遜與國家科學(xué)基金會合作,投資千萬美金開發(fā)AI公平性系統(tǒng),實現(xiàn)人工智能系統(tǒng)更廣泛的接受度。
智東西3月26日消息,亞馬遜昨日宣布將與美國國家科學(xué)基金會(NSF)合作,在未來三年內(nèi)投入1000萬美元的研究經(jīng)費,開發(fā)專注于人工智能和機器學(xué)習(xí)公平性的系統(tǒng)。
亞馬遜Alexa AI 團隊的自然理解副總裁 Prem Natarajan 表示,人工智能的普及使其公平性問題在學(xué)術(shù)界、政府部門和企業(yè)界都變得越來越重要,公平性問題對于建立和維護客戶的信任也是至關(guān)重要的。
為實現(xiàn)人工智能系統(tǒng)更廣泛的接受度,亞馬遜與NSF的合作將針對人工智能的可解釋性、潛在的不利偏見和影響、緩解策略、公平性驗證以及包容性考慮。美國將繼續(xù)發(fā)揮人工智能技術(shù)的潛力,希望到5月10日他們接受的人工智能公平性驗證提案能夠帶來新的開放源碼工具、公開可用的數(shù)據(jù)集和出版物。
亞馬遜將為該計劃提供部分資金,NSF根據(jù)其績效評估流程獨立地做出獎勵決定。 該計劃預(yù)計將在2020年和2021年繼續(xù)進行,并附加征集意向書。
美國國家科學(xué)基金會計算機和信息科學(xué)與工程負責人Jim Kurose表示,與亞馬遜合作進行人工智能公平性研究將支持有關(guān)開發(fā)和實施可靠的人工智能系統(tǒng)的研究,這些系統(tǒng)從一開始就將透明度、公平性和問責制融入設(shè)計中。
亞馬遜與國家科學(xué)基金會合作的消息發(fā)布后,越來越多的企業(yè)、學(xué)術(shù)機構(gòu)和行業(yè)協(xié)會開始加入,進行人工智能道德研究。他們的共同工作已經(jīng)產(chǎn)生了算法偏差緩解工具,這些工具有望加速向更公正的模型邁進。
亞馬遜與科學(xué)基金會合作,專注于開發(fā)AI和機器學(xué)習(xí)公平性的系統(tǒng)
去年5月,F(xiàn)acebook 發(fā)布了公平流程,如果算法根據(jù)種族、性別或年齡對某人做出不公平的判斷,它會自動發(fā)出警告。埃森哲咨詢公司發(fā)布了可以自動檢測AI算法偏差的工具包,為數(shù)據(jù)科學(xué)家減輕算法偏差提供幫助。微軟也在去年5月推出了自己的解決方案,同年9月谷歌推出了 What-If 工具,這是 TensorBoard 網(wǎng)絡(luò)儀表板上的一個偏見檢測功能,用于 TensorFlow 機器學(xué)習(xí)框架的網(wǎng)絡(luò)儀表板的偏置檢測功能。
IBM也在去年秋天發(fā)布了AI Fairness ,這是一款基于云計算的全產(chǎn)品,可以幫助了解AI系統(tǒng)如何做出決策并給出調(diào)整建議——例如算法調(diào)整或平衡數(shù)據(jù)。最近IBM的Watson和Cloud Platforms小組的研究重點是減輕AI模型中的偏差,特別是在面部識別方面。
麻省理工學(xué)院的研究人員發(fā)現(xiàn) Rekognition ——亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)的目標檢測 API——無法可靠地確定特定情況下女性和深膚色面孔的性別。在2018年進行的實驗中,RekogniTIon 的面部分析功能錯誤地將女性的照片識別為男性,將深色皮膚的女性的照片識別為男性的比例分別為19% 和31% 。
亞馬遜對研究結(jié)果提出異議,對于實驗結(jié)果是否準確仍存在爭議。亞馬遜表示在RekogniTIon更新版本的測試中,所有種族的性別分類準確性“無差異”,并提出研究結(jié)果的論文沒有清楚地說明實驗中使用的置信閾值。