放棄對流程及其細節(jié)的完全控制是令人生畏的,但對于發(fā)展業(yè)務(wù)卻是必要的。這是任何組織中大多數(shù)管理人員都非常習(xí)慣的做法。當然,委派AI而不是雇用員工也帶來了所有節(jié)省時間,提高效率的好處,但是存在一定的風(fēng)險。
流行電影已經(jīng)為預(yù)約AI奠定了基礎(chǔ)。與科幻反英雄終結(jié)者或《黑客帝國》中的計算機專門針對人類作為共同敵人的技術(shù)不同,反抗AI的現(xiàn)實例子引起了人們對現(xiàn)有歧視問題的更多關(guān)注。微軟的Tay聊天機器人在短短的曝光后就臭名昭著地表現(xiàn)出歧視態(tài)度。最近,以“簡單,透明和隱私”為榮的消費類科技公司蘋果公司證明,當蘋果卡向具有相同財務(wù)背景的男子提供的借貸限額明顯高于女性時,仍然需要取得進展。立即說明。
因此,難怪消費者需要說服力。實際上,在最近的Pega調(diào)查中,大多數(shù)客戶(70%)證實他們?nèi)匀幌矚g人工客戶服務(wù),因此很明顯,人們對AI缺乏信任。但是,品牌必須克服這一問題,才能獲得這項技術(shù)的眾多好處并釋放這些好處。
那么,CIO如何避免重復(fù)過去的錯誤并阻止AI在將來變得糟糕?
從流程的一開始,CIO可以通過確保用于創(chuàng)建算法的數(shù)據(jù)本身具有道德和公正性,來幫助AI變得“良好”。收集和使用來自道德來源的數(shù)據(jù)可顯著降低包含有毒數(shù)據(jù)集的風(fēng)險,該數(shù)據(jù)集可能會感染系統(tǒng),并帶有更嚴重的偏差。
對于高度管制的行業(yè)而言,這尤其重要,因為該行業(yè)需要確定已經(jīng)存在的偏見并進行相應(yīng)的補救。以保險為例,首席信息官應(yīng)注意不要包括嚴重具有某一特定人口,性別等特征的數(shù)據(jù),這可能會增加平均值并告知非代表性政策。
從獲得同意的客戶那里收集符合道德標準,符合GDPR要求的代表性數(shù)據(jù)的豐富樣本,實際上可以提高其支持的AI的準確性,而且還可以減少“清理”所需的工作。CIO在實施可正常運行的AI系統(tǒng)之前,應(yīng)先篩選其使用的數(shù)據(jù)是否存在不一致和錯誤,但是首先從信譽良好且可靠的來源獲得時,此過程將是一項艱巨的任務(wù)。