AIGC:一種生產(chǎn)力的變革
面對互聯(lián)網(wǎng)內(nèi)容生產(chǎn)效率提升的迫切需求,是否能夠利用人工智能去輔助內(nèi)容生產(chǎn)?這種繼專業(yè)生產(chǎn)內(nèi)容(PGC)、用戶生成內(nèi)容(UGC)之后形成的、完全由人工智能生成內(nèi)容的創(chuàng)作形式被稱為AIGC。最初的AIGC通常基于小模型展開,這類模型一般需要特殊的標注數(shù)據(jù)訓練,以解決特定的場景任務,通用性較差,很難被遷移,而且高度依賴人工調(diào)參。后來,這種形式的AIGC逐漸被基于大數(shù)據(jù)量、大參數(shù)量、強算法的大模型取代,這種形式的AIGC無須經(jīng)過調(diào)整或只經(jīng)過少量微調(diào)就可以遷移到多種生成任務。
2014年誕生的生成對抗網(wǎng)絡(GAN)是AIGC早期轉(zhuǎn)向大模型的重要嘗試,它利用生成器和判別器的相互對抗并結(jié)合其他技術模塊,可以實現(xiàn)各種模態(tài)內(nèi)容的生成。而到了2017年,變換器( Transformer)架構(gòu)的提出,使得深度學習模型參數(shù)在后續(xù)的發(fā)展中得以突破1億大關。2022年11月30日,開放人工智能研究實驗室(OpenAI)發(fā)布了名為ChatGPT的超級人工智能(AI)對話模型。ChatGPT不僅可以清晰地理解用戶的問題,還能如同人類一般流暢地回答用戶的問題,并完成一些復雜任務,包括按照特定文風撰寫詩歌、假扮特定角色對話、修改錯誤代碼等。此外,ChatGPT還表現(xiàn)出一些人類特質(zhì),例如承認自己的錯誤,按照設定的道德準則拒絕不懷好意的請求等。ChatGPT一上線,就引發(fā)網(wǎng)民爭相體驗,但也有不少人對此表示擔憂,擔心作家、畫家、程序員等職業(yè)在未來都將被人工智能所取代。
雖然存在這些擔憂,但人類的創(chuàng)造物終究會幫助人類自身的發(fā)展,AIGC無疑是一種生產(chǎn)力的變革,將世界送入智能創(chuàng)作時代。在智能創(chuàng)作時代,創(chuàng)作者生產(chǎn)力的提升主要表現(xiàn)為三個方面:一是代替創(chuàng)作中的重復環(huán)節(jié),提升創(chuàng)作效率;二是將創(chuàng)意與創(chuàng)作相分離,內(nèi)容創(chuàng)作者可以從人工智能的生成作品中找尋靈感與思路;三是綜合海量預訓練的數(shù)據(jù)和模型中引入的隨機性,有利于拓展創(chuàng)新的邊界,創(chuàng)作者可以生產(chǎn)出過去無法想出的杰出創(chuàng)意。
技術倫理成為發(fā)展的重要關注點
AIGC技術的發(fā)展無疑是革命性的。它可以改善我們的日常生活,提高生產(chǎn)力,但也面臨著諸多技術倫理方面的挑戰(zhàn)。
一個典型的AIGC技術倫理問題是AI所生成內(nèi)容的危險性??茖W家正嘗試運用一些技術手段避免這些具有潛在風險的事件發(fā)生。通過改善數(shù)據(jù)集,增加更多的限制性條件以及對模型進行微調(diào),可以使得人工智能減少對于有害內(nèi)容的學習,從而降低人工智能本身的危險性。甚至我們可以“教會”人工智能如何更尊重他人,減少判斷當中的偏見,更好地和人類相處。借鑒強化學習思想(RLHF)方法就是減少人工智能生成危害性內(nèi)容的典型措施,ChatGPT就是采用這種方式訓練的。在RLHF的框架下,開發(fā)人員會在人工智能做出符合人類預期回答時給予獎勵,而在做出有害內(nèi)容的回答時施加懲罰,這種根據(jù)人類反饋信號直接優(yōu)化語言模型的方法可以給予AI積極的引導。然而,即便采用這種方式,AI生成的內(nèi)容也有可能在刻意誘導的情況下具有危害性。以ChatGPT為例,在一位工程師的誘導下,它寫出了步驟詳細的毀滅人類計劃書,詳細到入侵各國計算機系統(tǒng)、控制武器、破壞通訊和交通系統(tǒng)等。還有一些人表達了對RLHF這類安全預防性技術措施的質(zhì)疑,他們擔憂足夠聰明的人工智能可能會通過模仿人類的偽裝行為來繞過懲罰,在被監(jiān)視的時候假裝是好人,等待時機,等到?jīng)]有監(jiān)視的時候再做壞事。
除了從訓練角度對AIGC潛在技術倫理問題進行預防外,在使用上及時告警停用的技術措施更顯必要。AIGC產(chǎn)品應該對生成的內(nèi)容進行一系列合理檢測,確保其創(chuàng)作內(nèi)容不被用于有害或非法目的,一旦發(fā)現(xiàn)此類用途,人工智能應該可以立刻識別,停止提供服務,并且給出警告甚至聯(lián)系相關監(jiān)管或者執(zhí)法機構(gòu)。
監(jiān)管法律正待完善
隨著全球范圍內(nèi)的相關法律法規(guī)的不斷完善,無論是賦能產(chǎn)業(yè)升級還是自主釋放價值,AIGC都將在健康有序的發(fā)展中得到推進。標準規(guī)范為AIGC生態(tài)構(gòu)建了一個技術、內(nèi)容、應用、服務和監(jiān)管的全過程一體化標準體系,促進AIGC在合理、合規(guī)和合法的框架下進行良性發(fā)展。
以美國為例,雖然美國在AIGC技術領域起步較早,且技術布局一直處于全球領先地位,但迄今為止還沒有關于AIGC的全面聯(lián)邦立法??紤]到AIGC所涉及的風險以及濫用可能造成的嚴重后果,美國正在加速檢查和制定AIGC標準的進程。例如美國國家標準與技術研究院(NIST)與公共和私營部門就聯(lián)邦標準的制定進行了討論,以創(chuàng)建可靠、健全和值得信賴的人工智能系統(tǒng)的基礎。與此同時,州立法者也在考慮AIGC的好處和挑戰(zhàn)。根據(jù)不完全統(tǒng)計,2022年,至少有17個州提出了AIGC相關的法案或決議,并在科羅拉多州、伊利諾伊州、佛蒙特州和華盛頓州頒布。
目前,白宮科技政策辦公室已經(jīng)頒布了10條關于人工智能法律法規(guī)的原則,為制定AIGC開發(fā)和使用的監(jiān)管和非監(jiān)管方法提供參考,包括建立公眾對人工智能的信任;鼓勵公眾參與并提高公眾對人工智能標準和技術的認識;將高標準的科學完整性和信息質(zhì)量應用于AI和AI決策;以跨學科的方式使用透明的風險評估和風險管理方法;在考慮人工智能的開發(fā)和部署時評估全部社會成本、收益和其他外部因素;追求基于性能的靈活方法,以適應人工智能快速變化的性質(zhì);評估人工智能應用中的公平和非歧視問題;確定適當?shù)耐该鞫群团端揭栽黾庸娦湃?;保持控制以確保AI數(shù)據(jù)的機密性、完整性和可用性,從而使開發(fā)的AI安全可靠;鼓勵機構(gòu)間協(xié)調(diào),以幫助確保人工智能政策的一致性和可預測性。根據(jù)上述原則框架以及AIGC領域后續(xù)發(fā)展中的監(jiān)管實踐,在不遠的未來,將會有更多具體的監(jiān)管條例落地。