亚洲免费www97爱|草草aⅴ在线观看视频|伊伊综合网在线视频免费|在线日本道二区免费v

    您的位置:首頁>AI>

    如何讓人工智能更合乎道德

    皮尤研究中心最近的一項研究發(fā)現(xiàn),大多數(shù)專家和倡導者擔心人工智能將繼續(xù)專注于優(yōu)化利潤和社會控制,并且不太可能在未來十年內建立道德基礎。在今年早些時候的一項學術研究中,康奈爾大學和賓夕法尼亞大學的研究人員發(fā)現(xiàn),三分之二的機器學習研究人員表示,人工智能安全應該比現(xiàn)在更重要。他們還發(fā)現(xiàn),當人工智能得到聯(lián)合國或等現(xiàn)有國際機構的支持時,人們愿意信任人工智能。

    其中一些擔憂是基于早期的人工智能模型,這些模型表現(xiàn)出無意的偏見。例如,Twitter 選擇性裁剪圖像預覽的算法顯示出對某些群體的明顯偏見(Twitter 后來獨立評估了該算法并決定將其刪除)。不僅在計算機視覺中,而且在機器學習的幾乎所有領域都發(fā)現(xiàn)了類似的偏見。

    我們已經看到最近幾次嘗試緩解此類問題。比如去年,國防部發(fā)布了五項人工智能原則,建議人工智能技術應該是負責任的、公平的、可追溯的、可靠的和可治理的。谷歌、Zendesk和微軟也發(fā)布了指導方針,提供了一個框架來實現(xiàn)圍繞道德 AI 開發(fā)的雄心勃勃的目標。這些都是很好的起點。

    道德人工智能仍處于起步階段,但對于公司采取行動來說變得越來越重要。我的團隊從第一原則的角度研究了道德 AI,并通過其他參與者的研究對其進行了擴充。我們在開發(fā)自己的道德 AI 框架時提出了這些原則,并希望它們對其他團隊有所幫助:

    1. 闡明您要解決的問題并確定潛在的偏見

    開發(fā)合乎道德的 AI 的第一步是明確闡明您要解決的問題。例如,如果您正在開發(fā)信用評分算法,請準確概述您希望您的算法確定申請人的哪些內容,并突出顯示可能無意導致偏見的任何數(shù)據(jù)點(例如,基于某人居住地的種族混雜因素) . 這也意味著了解工程師或產品經理可能存在的任何隱性偏見,并確保這些偏見不會被寫入代碼。在設計階段識別偏見的一種方法是從一開始就讓具有不同觀點的團隊成員參與進來,無論是在他們的業(yè)務職能(例如法律、產品和營銷)方面,還是在他們自己的經驗和背景方面。

    2. 了解您的基礎數(shù)據(jù)集和模型

    一旦您闡明了問題并確定了潛在的偏差,您應該通過灌輸過程來衡量數(shù)據(jù)集的多樣性和跨感興趣組的模型性能來定量研究偏差。這意味著對訓練數(shù)據(jù)進行采樣以確保它公平地代表感興趣的組,并按這些感興趣的組分割模型性能以確保您不會看到某些組的性能下降。例如,在開發(fā)計算機視覺模型(如情感檢測算法)時,問問自己:它們對男性和女性是否同樣有效?適合各種膚色和年齡?了解數(shù)據(jù)集的構成以及可能在培訓或生產中無意引入的任何偏差至關重要。

    3. 透明且平易近人

    人工智能團隊還應該尋求更好地理解他們的人工智能模型,并與正確的利益相關者透明地分享這種理解。這可能有多個維度,但應主要關注您的 AI 模型能做什么和不能做什么,以及它們所基于的基礎數(shù)據(jù)集??紤]一個內容推薦系統(tǒng):在向客戶提供相關推薦之前,您能否闡明它需要多少信息?如果有的話,采取了哪些步驟來減輕觀點的放大和用戶體驗的同質化?您對正在構建的底層 AI 技術了解得越多,就越能在內部向用戶和其他團隊透明地解釋它們。谷歌用模型卡提供了一個很好的例子 — 對其 AI 模型的簡單解釋,描述模型何時工作最佳(以及何時無效)。

    免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!