人工智能的“遺忘”與人類不同,這也是該領(lǐng)域面臨的一大挑戰(zhàn)。據(jù)《連線》雜志網(wǎng)站近日消息稱,作為計算機科學中的新興領(lǐng)域,機器學習研究者們已經(jīng)開始探索在AI中誘發(fā)“選擇性失憶”的方法,其目標是在不影響模型性能的前提下,從機器學習中刪除特定人員或點的敏感數(shù)據(jù)。如果未來能夠?qū)崿F(xiàn),那么這一概念將幫助人們更好地控制數(shù)據(jù)。
機器學習宗旨是使用計算機作為工具并致力于真實、實時的模擬人類學習方式,其可以將現(xiàn)有內(nèi)容進行知識結(jié)構(gòu)劃分,再廣泛應(yīng)用于解決工程應(yīng)用和科學領(lǐng)域的復(fù)雜問題?,F(xiàn)在,機器學習被視作最具智能特征的研究領(lǐng)域,但科學家已經(jīng)提出了新的問題:機器會學習,但它會遺忘嗎?實際上,它們的學習方式雖然在效仿人類,但“遺忘”方式卻與我們大不一樣。
機器學習的“遺忘”,對于有需求的用戶,也就是那些對他們在網(wǎng)上分享的內(nèi)容感到后悔的人來說,其實很直觀。但從技術(shù)層面來講,消除特定數(shù)據(jù)點影響的傳統(tǒng)方法,是“從零開始”重建系統(tǒng),這是一項代價可能相當高昂的工作,令企業(yè)幾乎難以承受。具體來說,某些地區(qū)的用戶如果他們對披露的內(nèi)容改變了主意,其實是有權(quán)要求公司刪除他們的數(shù)據(jù)的。但徹底抹除這件事很難實現(xiàn),因為一旦經(jīng)過訓練,機器學習系統(tǒng)就不會輕易改變,甚至就連訓練者們自己,也不清楚系統(tǒng)是如何掌握這些能力的,因為他們并不能完全理解自己調(diào)試或訓練出的算法。
2019年有科學家提出可以將機器學習項目的源數(shù)據(jù)分成多個部分,以實現(xiàn)對單個數(shù)據(jù)點的“遺忘”,但最近已被證明存在缺陷。如果提交的刪除請求以特定的順序出現(xiàn),無論是偶然的還是惡意的,機器學習系統(tǒng)都會崩潰。因此,要實現(xiàn)“選擇性失憶”這個概念,科學家可能需要在計算機科學方面做出全新探索。
“當他們(用戶)要求刪除數(shù)據(jù)時,我們能否消除他們數(shù)據(jù)的所有影響,同時避免從頭開始重新訓練的全部成本?”賓夕法尼亞大學機器學習教授亞倫·羅斯表示,他們目前進行的研究就是希望能找到一些“中間地帶”?;蛟S在不久的將來,有望找出一條既可以控制數(shù)據(jù)也可以保護由數(shù)據(jù)產(chǎn)生的價值的發(fā)展道路。(記者 張夢然)
總編輯圈點
其實,不只是機器面臨“選擇性失憶”的難題,人類同樣也還沒掌握這項技能。遺忘,往往發(fā)生在不經(jīng)意間,是被動的。人也無法精準選擇記住什么,忘記什么,否則,哪來那么多“舉杯消愁愁更愁”。機器學習模型的神經(jīng)網(wǎng)絡(luò)訓練過程,猶如“煉丹”。你很難知道丹藥具體是靠什么煉成的,所以也就不敢輕易改變火候和進入爐子的元素??赡埽帽仨毞浅A私鈾C器學習的路徑,才能實現(xiàn)數(shù)據(jù)的精準抽離。總之,這確實是一個有待解決但靠常規(guī)思路又非常棘手的問題。