出處:快科技 作者:雪花
近日,有程序員開發(fā)出一款名叫DeepNude的應(yīng)用備受外界關(guān)注,這款應(yīng)用之所以“走紅”是只要給DeepNude一張女性照片,借助神經(jīng)網(wǎng)絡(luò)技術(shù),App可以自動(dòng)“脫掉”女性身上的衣服,顯示出裸體。
如此有爭議的做法,收到了AI人工智能行業(yè)工作者的強(qiáng)烈不滿,在大家看來,這與早前的DeepFakes換臉應(yīng)用類似,DeepNude同樣打開了AI工具的陰暗面,因?yàn)殚_發(fā)者很難確保其他人會恪守道德準(zhǔn)則。
迫于外界的輿論壓力,開發(fā)者已經(jīng)關(guān)閉了DeepNude應(yīng)用程序。其在Twitter消息中寫到:“我們其實(shí)并不希望以這樣的方式去賺錢”。
之前,反“色情復(fù)仇”組織Badass的創(chuàng)始人凱特琳·鮑登(Katelyn Bowden)感嘆說:“真是讓人震驚?,F(xiàn)在每個(gè)人都有可能成為色情報(bào)復(fù)的受害者,即使沒有拍過一張裸體照片,也可能會成為受害者。這樣的技術(shù)根本不應(yīng)該向公眾開放。”
而馬里蘭大學(xué)凱里法學(xué)院(University of Maryland Carey School of Law)教授丹尼爾·西龍(Danielle Citron)認(rèn)為,DeepNude無疑是在侵犯用戶的性隱私。