相關(guān)技術(shù)人員使用一個因果模型分析表示,能夠識別AI生成藝術(shù)品的相關(guān)方面,以及這些不同方面是如何相互影響的。其中偏見比其他問題更有害。GoArt是一個類似DeepArt的平臺,它將克萊曼婷·亨特的《黑矩陣女主角》的面部顏色從黑色改為紅色,將其轉(zhuǎn)化為表現(xiàn)主義風(fēng)格。另一個AI生成的藝術(shù)工具,“Abacus”將拉斐爾和皮耶羅·迪·科西莫作品中留長發(fā)的年輕男性錯當(dāng)成了女性。
相關(guān)技術(shù)人員將這些問題歸咎于用于訓(xùn)練生成人工智能模型的數(shù)據(jù)集失衡,指出,這可能受到數(shù)據(jù)集管理員偏好的影響。
例如,研究中提到的一款應(yīng)用“人工智能肖像”人工智能使用了4.5萬幅文藝復(fù)興時期的肖像畫,其中大部分是白人。根據(jù)研究人員的說法,另一個潛在的偏差來源可能是標(biāo)記過程中的不一致。不同的注釋者有不同的偏好、文化和信念,這些可能反映在它們創(chuàng)建的標(biāo)簽中。
在藝術(shù)流派、藝術(shù)家、藝術(shù)運動等方面可能存在不平衡。另外,描述不同種族、外貌等信息也沒有納入數(shù)據(jù)集,因此造成了代表性偏見。錯誤地建?;蚝鲆暷承┪⒚畹男畔ⅲ伤囆g(shù)可能會助長對過去社會、文化和政治方面的錯誤認(rèn)知,并阻礙了解重要歷史事件。