隨著AI在更多行業(yè)中被越來越多地采用,其用戶試圖在有效保護其實用性的同時實現(xiàn)保護用戶隱私的微妙平衡。AI的常見優(yōu)秀實踐是對AI的使用以及如何達(dá)到特定結(jié)果保持透明。但是,這種透明度有好有壞的一面。這是您應(yīng)該了解的AI透明性的利弊,以及實現(xiàn)這一困難平衡的可能解決方案。
好處
人工智能可提高效率,利用創(chuàng)新并簡化流程。透明地了解其工作原理和計算結(jié)果的方式可以帶來一些社會和商業(yè)優(yōu)勢,包括:
司法公正
在過去的幾年中,人工智能的使用數(shù)量持續(xù)增長。人工智能甚至已經(jīng)擴展到司法系統(tǒng)中,從做交通票到考慮比陪審團更公平,人工智能都可以做。
當(dāng)公司對使用AI透明時,它們可以增加用戶訴諸司法的機會。人們可以看到AI如何收集關(guān)鍵信息并達(dá)到特定結(jié)果。與不使用AI的情況相比,他們可以獲得的技術(shù)和信息更多。
避免歧視
AI的原始缺點之一是當(dāng)AI被用來檢測模式并根據(jù)其收集的數(shù)據(jù)對用戶做出假設(shè)時,可能會產(chǎn)生歧視性結(jié)果。
然而,人工智能今天變得更加復(fù)雜,甚至被用來檢測歧視。AI可以確保包括所有用戶的信息或聽到他們的聲音。在這方面,人工智能可以成為一個很好的均衡器。
灌輸?shù)男湃?/span>
當(dāng)AI用戶預(yù)先了解他們對AI的使用并向其客戶群說明這種用法時,他們更有可能灌輸信任感。人們需要知道公司如何達(dá)到特定的結(jié)果,而透明可以幫助彌合企業(yè)與其客戶之間的鴻溝。
客戶愿意擁抱AI。在Salesforce的“關(guān)聯(lián)消費者狀況”中接受調(diào)查的消費者中,有62%的人表示他們對AI持開放態(tài)度,以改善他們的體驗,并且企業(yè)愿意滿足這一需求。
埃森哲(Accenture)最近的一項調(diào)查顯示,有72%的高管表示,他們希望通過透明地使用AI來獲得客戶對產(chǎn)品或服務(wù)的信任和信心。能夠透明地使用AI以及為保護用戶數(shù)據(jù)而采取的安全措施的公司可能會從這種提高的透明度中受益。
更明智的決策
當(dāng)人們知道自己正在與AI系統(tǒng)進行交互而不是被騙去認(rèn)為它是人類時,他們通??梢赃m應(yīng)自己的行為以獲取所需的信息。
例如,人們可能在聊天框中使用關(guān)鍵字而不是完整的句子。用戶可能會對這些系統(tǒng)的優(yōu)點和局限性有更好的了解,并做出有意識的決定與AI系統(tǒng)進行交互。
缺點
盡管透明度可以帶來上述一些積極成果,但它也有一些缺點,包括以下方面:
缺少隱私
反對AI及其透明性的一個重要論據(jù)是可能缺乏隱私。AI通常會收集大數(shù)據(jù),并使用獨特的算法為該數(shù)據(jù)分配一個值。但是,為了獲得結(jié)果,人工智能通常會跟蹤每項在線活動(您可以免費獲得背景調(diào)查),人工智能會跟蹤,搜索和使用企業(yè)網(wǎng)站。其中一些信息也可能出售給第三方。
此外,人工智能通常用于跟蹤人們的在線行為,從中人們可以辨別有關(guān)一個人的關(guān)鍵信息,包括他或她:
種族 政治信仰 宗教信仰 性別 性傾向 健康狀況
即使人們選擇不向任何人在線提供此敏感信息,由于AI功能,他們?nèi)匀豢赡軙馐苄畔⒌膩G失。此外,AI可能會跟蹤公開可用的信息。但是,當(dāng)沒有人檢查此信息的準(zhǔn)確性時,一個人的信息可能會與另一個人的信息混淆。
破解說明
當(dāng)公司發(fā)布其對AI的解釋時,黑客可能會使用此信息來操縱系統(tǒng)。例如,黑客可能能夠?qū)Υa或輸入進行微小的更改以實現(xiàn)不準(zhǔn)確的結(jié)果。
這樣,黑客就可以利用公司自身的透明度來抵制它。
當(dāng)黑客了解AI背后的原因時,他們可能會影響算法。通常不鼓勵使用這種技術(shù)來檢測欺詐。因此,當(dāng)利益相關(guān)者未采取其他措施時,該系統(tǒng)可能更易于操作。
知識產(chǎn)權(quán)盜竊
當(dāng)一家公司對AI的使用透明時,可能會出現(xiàn)的另一個潛在問題是這些黑客竊取了其專有商業(yè)秘密或知識產(chǎn)權(quán)的可能性。這些人可能能夠查看公司的解釋并重新創(chuàng)建專有算法,從而損害業(yè)務(wù)。
容易受到攻擊
網(wǎng)上有如此多的可用信息,有7800萬美國人說他們擔(dān)心網(wǎng)絡(luò)安全。當(dāng)公司闡明如何使用AI時,這可能使黑客更容易訪問消費者的信息或造成可能導(dǎo)致身份盜用的數(shù)據(jù)泄露,例如臭名昭著的Equifax數(shù)據(jù)泄露,使1.48億美國人的私人記錄受損。
監(jiān)管的敏感性
有關(guān)AI的披露可能會帶來其他風(fēng)險,例如更嚴(yán)格的監(jiān)管。當(dāng)AI令人困惑且難以使用時,監(jiān)管機構(gòu)可能不理解或無法對其進行監(jiān)管。但是,當(dāng)企業(yè)對AI的角色透明時,這可能會帶來關(guān)于AI及其使用方式的更重要的監(jiān)管框架。以這種方式,創(chuàng)新者可能因其創(chuàng)新而受到懲罰。
訴訟目標(biāo)更容易
當(dāng)企業(yè)清楚其如何保護消費者的數(shù)據(jù)以實現(xiàn)透明性為目的時,它們可能會不知不覺地使自己更容易受到聲稱其信息使用不當(dāng)?shù)南M者的法律主張的影響。聰明的律師可以仔細(xì)審查AI透明性信息,然后開發(fā)有關(guān)業(yè)務(wù)對AI的使用的創(chuàng)新法律理論。
例如,他們可能專注于企業(yè)沒有采取哪些措施來保護消費者的隱私。然后,他們可能會使用此信息來聲稱該企業(yè)的行為或疏忽大意。此外,許多AI系統(tǒng)都以更簡單的模型運行。對其算法透明的公司可能會使用不太復(fù)雜的算法,這些算法可能會忽略某些信息或在某些情況下導(dǎo)致錯誤。經(jīng)驗豐富的律師可能能夠確定AI導(dǎo)致的其他問題,以證實其對企業(yè)的法律主張。
關(guān)于AI和隱私的真相
任何看過《終結(jié)者》電影(或者基本上是世界末日電影)的人都知道,即使僅出于最崇高的理由而開發(fā)的技術(shù)也有可能被武器化或用作最終損害社會的東西。
由于存在潛在的危害,已經(jīng)通過了許多法律,要求某些公司在使用AI方面保持透明。例如,金融服務(wù)公司必須披露他們在確定一個人的信譽時使用的主要因素,以及為什么他們在貸款決定中采取不利行動。
立法者正在積極提出并考慮其他法律。
如果獲得通過,這些法律可能會確立企業(yè)必須遵守的有關(guān)其如何收集信息,如何使用AI以及是否首先需要征得消費者同意的新義務(wù)。2019年,一項行政命令簽署成為法律,指示聯(lián)邦機構(gòu)將資源投入到AI的開發(fā)和維護中,并呼吁制定準(zhǔn)則和標(biāo)準(zhǔn),以允許聯(lián)邦機構(gòu)以保護隱私和國家安全的方式監(jiān)管AI技術(shù)。
即使尚未要求企業(yè)對AI的使用保持透明,也可能很快就沒有選擇的機會了。為了應(yīng)對這種可能的結(jié)果,一些企業(yè)正在積極建立內(nèi)部審查委員會,以測試AI并確定圍繞AI的道德問題。
他們還可以與法律部門和開發(fā)人員合作,為他們發(fā)現(xiàn)的問題創(chuàng)建解決方案。通過仔細(xì)評估其潛在風(fēng)險并在強制披露之前確定問題的解決方案,企業(yè)可能會更好地規(guī)避與AI透明度相關(guān)的風(fēng)險。