根據(jù)NUS的說(shuō)法,這些模型容易受到推理攻擊,使黑客可以提取有關(guān)訓(xùn)練數(shù)據(jù)的敏感信息。
已開(kāi)發(fā)出一種稱為“機(jī)器學(xué)習(xí)隱私權(quán)計(jì)量器”的新開(kāi)源工具,以幫助檢測(cè)基于人工智能(AI)的系統(tǒng)中的數(shù)據(jù)漏洞,并防止它們受到可能的攻擊。
新加坡國(guó)立大學(xué)(NUS)的一組研究人員開(kāi)發(fā)了該工具以及通用攻擊公式,該公式為測(cè)試AI系統(tǒng)中不同類(lèi)型的推理攻擊提供了框架。
“在使用敏感數(shù)據(jù)構(gòu)建AI系統(tǒng)時(shí),組織應(yīng)確保在此類(lèi)系統(tǒng)中處理的數(shù)據(jù)得到充分保護(hù)。我們的工具可以幫助組織在部署AI系統(tǒng)之前執(zhí)行內(nèi)部隱私風(fēng)險(xiǎn)分析或?qū)徍耍?rdquo; NUS助理教授Reza Shokri在一份新聞稿中說(shuō)。
在包括敏感信息的數(shù)據(jù)集上訓(xùn)練了各種服務(wù)中使用的AI模型。根據(jù)NUS的說(shuō)法,這些模型容易受到推理攻擊,使黑客可以提取有關(guān)訓(xùn)練數(shù)據(jù)的敏感信息。