微軟的AI倫理委員會(huì)幫助制定了國(guó)防部的內(nèi)部合同政策,如果不是日本領(lǐng)導(dǎo)層,G20成員國(guó)就不會(huì)通過AI倫理原則。根據(jù)一項(xiàng)案例研究,該案例研究了本周微軟,OpenAI和OECD的項(xiàng)目。
加州大學(xué)伯克利分校長(zhǎng)期網(wǎng)絡(luò)安全中心(CLTC)案例研究于周二發(fā)布,研究了組織如何將AI倫理原則付諸實(shí)踐。道德原則通常是措辭含糊的規(guī)則,可能難以轉(zhuǎn)化為工程師或其他一線工人的日常實(shí)踐。CLTC研究員Jessica Cussins Newman告訴VentureBeat,許多AI倫理和治理辯論更多地將重點(diǎn)放在需要的內(nèi)容上,而不是在實(shí)現(xiàn)原則所載目標(biāo)所需的實(shí)踐和政策上。
該研究的重點(diǎn)是OpenAI推出的GPT-2;經(jīng)合組織和二十國(guó)集團(tuán)采用人工智能原則;并在Microsoft創(chuàng)立了AI,道德和工程與研究效果(AETHER)委員會(huì)。經(jīng)合組織政策觀察站于2月啟動(dòng),旨在幫助36個(gè)成員國(guó)將原則轉(zhuǎn)化為實(shí)踐。紐曼說,該案例研究包括以前未公開的有關(guān)微軟AETHER委員會(huì)和七個(gè)內(nèi)部工作組的結(jié)構(gòu)及其在確定政策(例如在美國(guó)聯(lián)邦監(jiān)獄中使用面部識(shí)別)的作用的信息。
案例研究中的一個(gè)新內(nèi)容是20國(guó)集團(tuán)如何以及為什么認(rèn)可與OECD原則相同的AI倫理原則。經(jīng)合組織(OECD)創(chuàng)造了世界民主國(guó)家去年采納的第一項(xiàng)道德原則。
該研究發(fā)現(xiàn),人工智能治理自2016年以來已經(jīng)歷了三個(gè)階段:近年來,科技公司和政府發(fā)布了約85項(xiàng)道德準(zhǔn)則,這標(biāo)志著第一階段,隨后圍繞隱私,人為控制,可解釋性和公平性等主題達(dá)成了共識(shí)。第三階段始于2019年,一直持續(xù)到今天,正在將原則轉(zhuǎn)化為實(shí)踐。在第三階段,她認(rèn)為采用原則的企業(yè)和國(guó)家將面臨信守諾言的壓力。
該報(bào)告寫道:“幾乎所有AI利益相關(guān)者目前都面臨著有關(guān)如何實(shí)施AI原則和策略的決策,并且正在以一種有意義的方式來確定實(shí)踐和政策。”“人工智能公司和組織采取實(shí)施工作的壓力越來越大,那些被認(rèn)為偏離既定意圖的行為者可能會(huì)受到員工,用戶和公眾的強(qiáng)烈反對(duì)。今天就如何大規(guī)模實(shí)施AI原則而做出的決定將對(duì)未來數(shù)十年產(chǎn)生重大影響,并且AI利益相關(guān)者有機(jī)會(huì)學(xué)習(xí)現(xiàn)有的努力,并采取具體步驟來確保AI幫助我們建立更美好的未來。”
該案例研究的部分編制是通過與每個(gè)組織的領(lǐng)導(dǎo)人進(jìn)行訪談,包括微軟首席科學(xué)家埃里克·霍維茨和經(jīng)合組織的工作人員。
由于組織,技術(shù)和法規(guī)上的鎖定效應(yīng),紐曼認(rèn)為,像Microsoft和OECD那樣的早期努力將特別有影響力,并且越來越多的AI倫理原則通用性“將導(dǎo)致建立確保AI原則和方法的方法的壓力越來越大。策略得以實(shí)現(xiàn)。”
紐曼強(qiáng)調(diào),每個(gè)案例都可以提供經(jīng)驗(yàn)教訓(xùn),例如AETHER如何說明自上而下的道德領(lǐng)導(dǎo)的需求,盡管每種方法可能都不是其他組織復(fù)制的理想模型。
例如,OpenAI面臨研究人員的壓制,他們稱9個(gè)月內(nèi)發(fā)布GPT-2是PR特技或背叛了同行評(píng)審的核心科學(xué)過程,但Newman認(rèn)為OpenAI值得鼓勵(lì),因?yàn)樗膭?lì)開發(fā)人員考慮發(fā)布APT的倫理意義。模型。她指出,承認(rèn)和陳述人工智能系統(tǒng)的社會(huì)影響還不是常態(tài)。今年以來,全球最大的AI研究會(huì)議NeurIPS首次要求作者解決對(duì)社會(huì)的影響以及任何金融利益沖突。
該研究還匯編了一系列將原則付諸實(shí)踐的最新舉措,包括框架,監(jiān)督委員會(huì)和工具,例如IBM的可解釋AI工具包和Microsoft的InterpretML,以及隱私法規(guī),例如加利福尼亞的CCPA和歐盟的GDPR。
上個(gè)月,來自Google和OpenAI等組織的一系列AI研究人員建議組織實(shí)施偏見懸賞或創(chuàng)建第三方審計(jì)市場(chǎng),以將道德原則轉(zhuǎn)化為實(shí)踐,創(chuàng)建更強(qiáng)大的系統(tǒng),并確保AI仍對(duì)人性。3月,Microsoft Research負(fù)責(zé)人與AETHER和來自十幾個(gè)組織的近50位工程師一起,發(fā)布了針對(duì)AI從業(yè)人員的AI倫理清單。