據外媒Techspot報道,人們可以使用許多方法來(lái)處理圖像和視頻,因此谷歌通過(guò)發(fā)布更易于發(fā)現篡改的在線(xiàn)內容的工具來(lái)為最糟糕的情況做準備。隨著(zhù)2020年美國總統大選的臨近,科技巨頭們正在尋找不同的方式來(lái)對抗假新聞,錯誤信息以及在大型社交和搜索平臺上傳播deepfakes視頻的情況。
以谷歌為例,它一直在準備防御措施以應對假新聞浪潮。但是,這家搜索巨頭希望通過(guò)其Jigsaw子公司采取更為主動(dòng)的方法,該方法使用最近發(fā)布的名為Assembler的平臺來(lái)幫助事實(shí)檢查人員和新聞?dòng)浾咴趫D像有機會(huì )在線(xiàn)傳播之前迅速對其進(jìn)行驗證。
這些工具是免費的,并且雖然公認是“早期實(shí)驗平臺”的一部分,但它們是一個(gè)很好的起點(diǎn),其中包括來(lái)自加州大學(xué)伯克利分校,那不勒斯菲里德里克第二大學(xué)和馬里蘭大學(xué)的學(xué)者的貢獻。
匯編程序的工作方式是將幾種機器學(xué)習算法組合在一起,這些算法擅長(cháng)查找顏色和噪聲圖案,噪聲圖案中的不一致之處以及查看各種圖像
Assembler擅長(cháng)檢測圖像中最常用的篡改技術(shù),例如播放亮度或復制和粘貼紋理或對象以掩蓋某物或某人。它帶有一個(gè)分數,該分數代表圖片可能被篡改或以任何其他方式更改的可能性,類(lèi)似于A(yíng)dobe的About Face AI。該項目的另一個(gè)目標是微調可以發(fā)現使用StyleGAN創(chuàng )建的 deepfakes,StyleGAN是一種能夠產(chǎn)生令人信服的假想面孔的算法。
Jigsaw首席執行官Jared Cohen在博客文章中解釋說(shuō),該公司“觀(guān)察到虛假信息以被用于操縱選舉,發(fā)動(dòng)戰爭和破壞公民社會(huì )的方式的發(fā)展。” 這種認識導致決定開(kāi)發(fā)用于阻止這些嘗試的技術(shù)。
在撰寫(xiě)本文時(shí),Assembler具有七個(gè)不同的工具,記者和其他人可以使用它們來(lái)發(fā)現遭篡改的圖像。但是,Jigsaw研究者Santiago Andrigo和Andrew Gully告訴《紐約時(shí)報》,匯編程序不是靈丹妙藥,作為一個(gè)生態(tài)系統,匯編程序需要隨著(zhù)時(shí)間的推移快速發(fā)展和改進(jìn)。
這就是Jigsaw還發(fā)布了一個(gè)名為“ The Current”的網(wǎng)絡(luò )出版物的原因,該出版物將持續不斷地展示正在進(jìn)行的有關(guān)檢測錯誤信息活動(dòng)的研究。Cohen表示:“我們的主要動(dòng)機是創(chuàng )建一個(gè)場(chǎng)所,使人們可以訪(fǎng)問(wèn)許多在處理此問(wèn)題的第一線(xiàn)的專(zhuān)家,獨立研究人員和組織的工作。”
人們可以使用許多方法來(lái)處理圖像和視頻,因此谷歌通過(guò)發(fā)布更易于發(fā)現篡改的在線(xiàn)內容的工具來(lái)為最糟糕的情況做準備。隨著(zhù)2020年美國總統大選的臨近,科技巨頭們正在尋找不同的方式來(lái)對抗假新聞,錯誤信息以及在大型社交和搜索平臺上傳播deepfakes視頻的情況。
以谷歌為例,它一直在準備防御措施以應對假新聞浪潮。但是,這家搜索巨頭希望通過(guò)其Jigsaw子公司采取更為主動(dòng)的方法,該方法使用最近發(fā)布的名為Assembler的平臺來(lái)幫助事實(shí)檢查人員和新聞?dòng)浾咴趫D像有機會(huì )在線(xiàn)傳播之前迅速對其進(jìn)行驗證。
這些工具是免費的,并且雖然公認是“早期實(shí)驗平臺”的一部分,但它們是一個(gè)很好的起點(diǎn),其中包括來(lái)自加州大學(xué)伯克利分校,那不勒斯菲里德里克第二大學(xué)和馬里蘭大學(xué)的學(xué)者的貢獻。
匯編程序的工作方式是將幾種機器學(xué)習算法組合在一起,這些算法擅長(cháng)查找顏色和噪聲圖案,噪聲圖案中的不一致之處以及查看各種圖像中像素的屬性。
Assembler擅長(cháng)檢測圖像中最常用的篡改技術(shù),例如播放亮度或復制和粘貼紋理或對象以掩蓋某物或某人。它帶有一個(gè)分數,該分數代表圖片可能被篡改或以任何其他方式更改的可能性,類(lèi)似于A(yíng)dobe的About Face AI。該項目的另一個(gè)目標是微調可以發(fā)現使用StyleGAN創(chuàng )建的 deepfakes,StyleGAN是一種能夠產(chǎn)生令人信服的假想面孔的算法。
Jigsaw首席執行官Jared Cohen在博客文章中解釋說(shuō),該公司“觀(guān)察到虛假信息以被用于操縱選舉,發(fā)動(dòng)戰爭和破壞公民社會(huì )的方式的發(fā)展。” 這種認識導致決定開(kāi)發(fā)用于阻止這些嘗試的技術(shù)。
在撰寫(xiě)本文時(shí),Assembler具有七個(gè)不同的工具,記者和其他人可以使用它們來(lái)發(fā)現遭篡改的圖像。但是,Jigsaw研究者Santiago Andrigo和Andrew Gully告訴《紐約時(shí)報》,匯編程序不是靈丹妙藥,作為一個(gè)生態(tài)系統,匯編程序需要隨著(zhù)時(shí)間的推移快速發(fā)展和改進(jìn)。
這就是Jigsaw還發(fā)布了一個(gè)名為“ The Current”的網(wǎng)絡(luò )出版物的原因,該出版物將持續不斷地展示正在進(jìn)行的有關(guān)檢測錯誤信息活動(dòng)的研究。Cohen表示:“我們的主要動(dòng)機是創(chuàng )建一個(gè)場(chǎng)所,使人們可以訪(fǎng)問(wèn)許多在處理此問(wèn)題的第一線(xiàn)的專(zhuān)家,獨立研究人員和組織的工作。”
據了解,Google的技術(shù)孵化器Jigsaw發(fā)布了一個(gè)名為Assembler的實(shí)驗平臺,以幫助記者和前線(xiàn)事實(shí)檢查人員快速驗證圖像。
其匯編程序結合了學(xué)術(shù)界現有的幾種技術(shù)來(lái)檢測常見(jiàn)的操縱技術(shù),包括更改圖像亮度和將復制的像素粘貼到其他地方以掩蓋某些東西,同時(shí)保留相同的視覺(jué)紋理。它還包括一個(gè)檢測器,該檢測器可以發(fā)現使用StyleGAN創(chuàng )建的深層偽造品,StyleGAN是一種可以生成逼真的假想面孔的算法。這些檢測技術(shù)會(huì )輸入到主模型中,該模型會(huì )告訴用戶(hù)圖像被操縱的可能性有多大。
眾所周知,偽造圖像是更難驗證的事情,尤其是隨著(zhù)人工智能操縱的興起。隨著(zhù)信息的傳播速度和規模的擴大,新聞?dòng)浾吆褪聦?shí)檢查者作出反應的機會(huì )窗口也在迅速縮小。
匯編程序是與受控媒體作斗爭的重要一步,但它并未涵蓋許多其他現有的操縱技術(shù),包括用于視頻的操縱技術(shù),隨著(zhù)生態(tài)系統的不斷發(fā)展,團隊需要對其進(jìn)行補充和更新。它仍然作為與通常分發(fā)篡改圖像的渠道分開(kāi)的平臺而存在。專(zhuān)家建議,像Facebook和Google這樣的技術(shù)巨頭將這些類(lèi)型的檢測功能直接整合到其平臺中。這樣,可以在上傳和共享照片和視頻時(shí)幾乎實(shí)時(shí)地執行此類(lèi)檢查。
也有其他方法可以考慮。例如,一些初創(chuàng )公司正在采用驗證技術(shù),該技術(shù)可以在拍攝照片時(shí)記住照片中像素的位置,但這也帶來(lái)了挑戰。最終,技術(shù)修復還遠遠不夠。數字偽造最棘手的方面之一并不是偽造圖像本身。而是它們存在的想法,可以很容易地調用它們來(lái)質(zhì)疑真實(shí)媒體的準確性。這是挑戰的類(lèi)型,也將需要社會(huì )和政策解決方案。