久久99国产精品久久99_日韩在线第二页_日韩人妻无码一区二区三区久久_久久亚洲私人国产精品

咨詢熱線:021-80392549

 QQ在線  企業(yè)微信
 資訊 > 人工智能 > 正文

人工智能機器人沒有感情,也會區(qū)別對待人類?

2020/03/261032

人工智能機器人沒有感情,也會區(qū)別對待人類?

人有七情六欲,所以在對待一些事情上,很多雖然說好是秉公辦理,公事公辦,但多少都會有所偏差,會感情用事,這個無可避免,智能盡量減少,但在大眾的認知中,人工智能的決策都是絕對理性與客觀的,因為我們知道背后驅使它的是冷冰冰卻比千言萬語更接近事實的數(shù)據(jù),然而,近期專家發(fā)現(xiàn),人工智能其實也會帶著有色眼鏡去看人。

據(jù)國外媒體報道,斯坦福大學的一項研究顯示,亞馬遜、蘋果、谷歌、IBM和微軟的語音識別系統(tǒng)存在種族差異,在白人用戶中出現(xiàn)的錯誤,要比在黑人用戶中少得多。

研究顯示,這五大科技公司的語音識別系統(tǒng)在白人中錯誤識別單詞的概率為19%。而在黑人用戶中,則提升至35%。此外,大約2%的白人音頻片段被這些系統(tǒng)認為是不可讀的。而在黑人用戶中,這一比例卻高達20%。

美國國家標準與技術研究所(NIST)也曾測試了兩種最常見的人臉識別算法,得出了四點結論:

1. 在一對一匹配中,大多數(shù)系統(tǒng)對亞裔和非裔美國人比對白人面孔的假陽性匹配率更高,有時是10倍甚至100倍。

2. 這種情況在亞洲國家發(fā)展的人臉識別算法中有所改變,在亞洲和白人之間,假陽性的差異非常小。

3.美國開發(fā)的算法始終不擅長匹配亞洲、非洲裔美國人和美洲原住民的面孔。美國原住民得到的是錯誤率最高。

4. 在一對多的配對中,非裔美國女性的假陽性率最低,這使她們被錯誤指控犯罪的風險最高。

事實上,早在2015年就已經(jīng)存在計算機視覺技術犯錯的例子,表明人工智能技術存在對女性和有色人種的偏見,實例包括Google 等科技業(yè)巨頭所提供的高人氣網(wǎng)絡服務,Google 照片應用程序(Google Photos app)被發(fā)現(xiàn)將非裔美國人標記為「大猩猩」,谷歌曾也為此進行公開道歉。

在探討如何消除人工智能的不客觀之前,我們先來看看AI的有色眼鏡到底從何而來。

數(shù)據(jù)是“罪魁禍首”

現(xiàn)階段讓AI提升認知世界能力的最有效途徑仍然是監(jiān)督學習,而目前AI算法能學習的數(shù)據(jù),幾乎全部都是通過人力逐一進行標注而得來的,數(shù)據(jù)集質(zhì)量的高低直接決定最終模型的效果。

數(shù)據(jù)標注者通常是人類,而人類是“復雜”的生物。這也是導致AI產(chǎn)生偏見的一個主要因素,大多數(shù)機器學習任務都是使用大型、帶標注的數(shù)據(jù)集來訓練,AI會基于開發(fā)者提供的訓練數(shù)據(jù)推斷出規(guī)律,再將規(guī)律套用在某些資料中。

打個比方,在人臉識別應用中,如果用于訓練的數(shù)據(jù)里白人男性比黑人女性更多,那白人男性的識別率將會更高。

導致AI產(chǎn)生偏見另一個原因可以歸于算法本身,一個常見的機器學習程序會試圖最大化訓練數(shù)據(jù)集的整體預測準確率。

有缺陷的算法還會造成惡性循環(huán),使偏見越發(fā)嚴重。例如谷歌翻譯,會默認使用男性代詞,這是因為英語語料庫中男性代詞對女性代詞的比例為2:1。

算法的原則是由AI自行進行學習,乍看之下很有效率。不過,一但提供的資料不夠全面,或開發(fā)者沒有想方設法避免歧視,AI推導出的結果便很容易帶有偏見。

AI并不理解“偏見”

偏見這個詞是人類創(chuàng)造的,也是人類定義的,AI并不能理解偏見的含義。
機器學習的方法會讓AI帶上了有色眼鏡,但是改變 AI 學習的方式也不是好的解決方式。

或許我們應該從自己身上找找原因,畢竟導致AI產(chǎn)生偏見的原因,有部分要歸咎于他們所使用的語言。人們需要弄清楚什么是偏見,以及偏見在語言中的傳遞過程,避免這些偏見在日益強大的 AI 應用中更大范圍的傳播。

前微軟副總裁沈向洋博士曾在公開課《打造負責任的AI》中指出:“人工智能已經(jīng)開始做出人類無法理解的決定了,我們需要開啟人工智能的黑箱,了解AI做出決定背后的原因?!?/span>

算法之所以會對人類進行區(qū)別對待,原因在于訓練算法用的基準數(shù)據(jù)集通常是來自新聞和網(wǎng)頁的數(shù)據(jù),就存在著由語言習慣造成的“性別偏見”,算法也自然“繼承”了人類對這些詞匯理解的性別差異。

AI技術距離完全消除技術偏見還有很長的一段路,但各大巨頭也已經(jīng)在技術層面做出努力。

谷歌開源了一項名為“What-If Tool”的探測工具,IBM將研發(fā)的偏見檢測工具—AI Fairness 360 工具包開源,包括超過 30 個公平性指標(fairness metrics),和 9 個偏差緩解算法,研究人員和開發(fā)者可將工具整合至自己的機器學習模型里,檢測并減少可能產(chǎn)生的偏見和歧視。

人類的行為是收到外界影響的,而這種語言傳統(tǒng)中出現(xiàn)的偏見,是在人文歷史中不斷加深嵌入的,在“偏見”通過代碼傳播之際,我們必須弄清楚,是否簡單的語言學習就足以解釋我們觀察到傳播中出現(xiàn)的偏見。

最重要的是大眾需要了解“偏見”從何而來,從而在社會中消除這種不文明的“偏見”。

關鍵詞:




AI人工智能網(wǎng)聲明:

凡資訊來源注明為其他媒體來源的信息,均為轉載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負責。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與網(wǎng)站(m.gzlyhb.com)聯(lián)系,本網(wǎng)站將迅速給您回應并做處理。


聯(lián)系電話:021-31666777   新聞、技術文章投稿QQ:3267146135   投稿郵箱:syy@gongboshi.com

工博士人工智能網(wǎng)
商城
服務機器人
智能設備
協(xié)作機器人
智慧場景
AI資訊
人工智能
智能機器人
智慧城市
智慧農(nóng)業(yè)
視頻
工業(yè)機器人
教育機器人
清潔機器人
迎賓機器人
資料下載
服務機器人
工博士方案
品牌匯
引導接待機器人
配送機器人
酒店服務機器人
教育教學機器人
產(chǎn)品/服務
服務機器人
工業(yè)機器人
機器人零部件
智能解決方案
掃描二維碼關注微信
?掃碼反饋

掃一掃,反饋當前頁面

咨詢反饋
掃碼關注

微信公眾號

返回頂部