在面對災難時保護公民常常需要做出深遠的決定。歡迎提供任何幫助,包括來自AI的幫助。
如加利福尼亞和澳大利亞最近發(fā)生的事件所示,野火正日益失去控制。然而,消防員仍在不懈地與火焰搏斗-如今,他們擁有的不僅僅是水和可控制的燒傷。長期以來,數(shù)字化已經以地理信息系統(tǒng),網(wǎng)絡攝像頭和無人機的形式成為其武器庫的一部分。這些已成為預測和控制野火的關鍵工具,但是它們產生的大量數(shù)據(jù)迅速將人類的專業(yè)知識推向了極限。ETH安全研究中心(CSS)的風險與彈性研究團隊負責人Benjamin Scharte說:“在處理海量數(shù)據(jù)時,AI總是有用的。” 最近,他和他的同事Kevin Kohler合作分析了AI在民防領域的使用。
“能夠使用算法進行預測非常令人興奮,”科勒說。消防前沿方向是哪個方向?我們應該在哪里設置下一個受控燒傷?通過處理所有可用數(shù)據(jù),基于AI的建模工具可以幫助回答這些問題。這些數(shù)據(jù)可能包括天氣預報,干旱持續(xù)時間,風向,甚至包括潛在的火源燃料。由此產生的預測可以使災難響應更加有效。在最佳情況下,它們甚至可以作為一種預防手段。
民事保護對使用AI尤其敏感,因為它經常是生死攸關的問題,而且每一分鐘都很重要。通常希望專家做出具有深遠影響的快速決策,因此,他們感謝能夠以更可靠的數(shù)據(jù)為基礎做出決策的任何幫助。但是,最終,決策的質量始終取決于數(shù)據(jù)的質量??评崭嬲]說:“無論我的算法多么聰明,如果我不能為災難提供正確的數(shù)據(jù),在緊急情況下它都將毫無用處。”
即使是最高質量的數(shù)據(jù)也無法完全取代多年來專家獲得的經驗,因此,由人還是由機器做出最終決定的問題非常復雜??傮w上講,該算法可能比人類算法產生的經濟損失更低或人員傷亡更少,但它也可能在個別情況下做出我們認為不可接受的決策。沙特說:“對我而言,很明顯,作為一個社會,我們將繼續(xù)為將決策權留給自主機器而苦苦掙扎。”
信任的問題
那么,在什么時候我們愿意讓機器做出自己的決定?沙特(Scharte)和科勒(Kohler)同意這取決于上下文:“民事保護有時是生死攸關的問題。人類應該在做出這些決定中發(fā)揮作用-這不是機器做出完全自主決定的地方。”
一個關鍵因素是人們對算法有多少信心。信任為接受鋪平了道路,當我們能夠清楚地了解算法在做什么時,兩者都會得到增強。例如,當醫(yī)生了解算法的決策邏輯時,他們更有可能信任該算法并將其納入其工作中。大量研究已經證實了這一點,但是Scharte發(fā)出警告:“透明度和可解釋性并不總能提高安全性。” 甚至在某些情況下,透明性可能是不利的,包括人為危害,例如網(wǎng)絡犯罪和恐怖主義。“如果您確切地揭示算法 察覺到可疑的行為模式,那么敵對行動者更有可能故意超過行為。”沙特警告說。