AI正以相當(dāng)顯眼得方式重塑著我們的世界,數(shù)據(jù)驅(qū)動(dòng)著全球數(shù)字生態(tài)系統(tǒng),AI技術(shù)則揭示了數(shù)據(jù)中的模式。智能手機(jī),智能家居以及智慧城市在影響著我們生活和交互方式,AI系統(tǒng)越來越多用于公司招聘、醫(yī)療診斷和司法裁決。這是一個(gè)烏托邦時(shí)代還是反烏托邦時(shí)代,全看你怎么看。
AI的潛在威脅早已被人說爛了,殺人機(jī)器人以及大規(guī)模失業(yè),甚至還有人擔(dān)心人類滅絕。而樂觀主義者預(yù)測(cè)AI到2030年將會(huì)為全球經(jīng)濟(jì)帶來15萬億美元的價(jià)值。
我們當(dāng)然需要考慮AI對(duì)我們社會(huì)所帶來的影響。其中一個(gè)引人注目的點(diǎn)是,AI系統(tǒng)加劇了現(xiàn)有的社會(huì)歧視。先進(jìn)的機(jī)器翻譯系統(tǒng)會(huì)產(chǎn)生性別歧視的輸出,圖像識(shí)別系統(tǒng)把黑人歸分為大猩猩。
之所以會(huì)出現(xiàn)這些問題是因?yàn)?,AI系統(tǒng)會(huì)采用類似于神經(jīng)網(wǎng)絡(luò)的數(shù)字模型來識(shí)別訓(xùn)練時(shí)候的數(shù)據(jù)。如果數(shù)據(jù)本身就是歪曲的,那么它固有的偏見就會(huì)自然地被訓(xùn)練過的AI系統(tǒng)學(xué)習(xí)和復(fù)制。這種帶有偏見的自主技術(shù)是有問題的,因?yàn)樗麄儠?huì)邊緣化女性、少數(shù)民族以及老年人,從而加劇社會(huì)失衡。
如經(jīng)典電影X戰(zhàn)警,X戰(zhàn)警在英文里是X MEN,用的是男性的單詞,還有黑衣人Man in Black,同樣也是用的男性的單詞。盡管電影方已經(jīng)開始意識(shí)到性別歧視問題,在電影中新增女性角色,或直接由女性演員接替成為主角,如Iron Man鋼鐵俠,雖然漫威宣布下一任鋼鐵俠是一位女性,但其名字仍然為Man而不是Woman。
要減少AI系統(tǒng)的偏見,我們本身就得減少這些偏見用詞,雖然很不幸,我們不能完全消滅這些偏見,但我們必須要朝著這個(gè)方向前進(jìn),就像電影方一樣。