基金logo的設計目的在于代表企業或品牌的形象,良好的基金logo建立起品牌和客戶之間的聯系:
在2017年底,知道并理解“深假”這個術語意味著一件事:你是利基Reddit論壇的定期瀏覽器,也是一種非常特殊的人工智能生成的名人色情作品的鑒賞家。現在,僅僅幾年后,這個詞就成了上網和使用數字產品的許多常規障礙的同義詞:假新聞、透明度、數字素養、數據保護、媒體操縱和虛假信息——所有這些都威脅到社會認為是真實的東西的結構。
現在,“deepfake”指的是任何由人工智能創建的、模仿公眾人物或私人個人的視聽內容。雖然色情內容仍然占網上上傳的deepfakes的大部分,但色情媒體并不是設計師、開發者和立法者面臨的最大挑戰。
除了造假丑聞之外,深度造假近年來因其對民主進程的威脅而成為最具新聞價值的話題。2018年四月,BuzzFeed創建了自己的deepfake視頻,以警告觀眾這種新技術可能被用于邪惡目的。它拍攝了前總統巴拉克奧巴馬在一次正式公開演講中的現有視頻,將喜劇演員喬丹皮爾的嘴映射到他的臉上,并使用皮爾最擅長的奧巴馬模仿,發出了一個嚴厲的警告:
"我們正在進入一個時代,在這個時代,我們的敵人可以讓任何人在任何時間點看起來像是在說任何話,即使他們永遠不會說那些話……向前看,我們需要對我們從互聯網上信任的東西更加警惕。"說教吧,皮爾。
Buzzfeed視頻,喬丹皮爾模仿奧巴馬總統警告觀眾深度造假的危險。圖片來自油管(國外視頻網站)上的Buzzfeed .為信任的新時代而設計
布里特帕里斯(布里特巴黎)和瓊多諾萬(瓊多諾萬)在他們為數據社會(數據社會)撰寫的2019年報告《深度假貨》和廉價假貨》(深度假貨和廉價假貨)中寫道,"目前,技術專家、政策制定者和記者正在回應deepfakes,呼吁學者們所謂的技術和法律封閉——即決定這項技術作用的法規、設計特征和文化規范。"
UX設計界正在團結起來支持這些目標。"作為未來十年數字產品的設計師,我們需要將我們的努力集中在透明設計上,并鼓勵用戶的批判性思維,"法布里西奧特謝拉在2020年一月為UX集體撰寫的專欄中寫道。但透明度在打擊deepfake的斗爭中實際上意味著什么?提高社會的數字素養能否抑制深度造假內容賴以繁榮的聳人聽聞的虛假敘述和令人信服的確認偏見?隨著技術的發展繼續超過用戶對可能性的理解,答案還不清楚。
雖然BuzzFeed上的奧巴馬視頻依賴皮爾的聲音模仿技巧,但已經有軟件可以讓他的角色變得多余。2016年,Adobe首次公開展示了Voco項目,這是一個能夠從經過20分鐘真實語音訓練的神經網絡中創建人工智能生成的語音的程序Voco。被宣傳為音頻的Photoshop,但盡管它有巨大的創作潛力,更多的專欄報道了它造成傷害的能力。
斯特林大學媒體和技術講師埃迪博爾赫斯雷伊博士對英國廣播公司(British Broadcasting Corporation)說:"在尋求創建操縱數字媒體的軟件的過程中,Adobe無意中已經徹底改變了我們處理照片等證據材料的方式。""這使得律師、記者和其他使用數字媒體作為證據的專業人士很難做到."或許有鑒于此,Voco尚未進行商業發行。
道德編輯
將deepfakes歸咎于任何一款軟件都是被誤導的,并且忽略了社會與"真理"關系的復雜歷史。現在有許多程序和平臺允許篡改視頻、音頻和圖像,但在它們發明之前,攝影一直是一種容易偽造的媒介。
深度假貨/廉價假貨光譜,來自布里特巴黎和瓊多諾萬的2019年數據社會報告。。在《深度贗品和廉價贗品》一書中,帕里斯和多諾萬認為,新型視聽深度贗品只是證據濫用的下一步,這種濫用破壞了視聽材料的真實性,因為它首次被法律接受為證據。幾十年來,社會一直生活在法庭和媒體上的篡改照片中,今天問題的唯一不同之處是錯誤信息可以在一個高度互聯的社區中傳播的速度和規模。
帕里斯將這種新現象稱為"信息技術的性欲使用",在這種情況下,信息的共享,不管是真的還是假的,都會觸動我們內心深處某種與生俱來的渴望。當我們面對一種與我們對世界的先入為主的觀念相結合的聳人聽聞的媒體時,我們會立即被迫去廣泛地分享它。事實上,研究表明,虛假信息在