營銷公司W(wǎng)underman Thompson的數(shù)據(jù)小組進(jìn)行的一項最新研究表明,當(dāng)對戴著口罩的人進(jìn)行測試時,成熟的AI系統(tǒng)(如Google AI)存在性別偏見。

這項研究中使用的AI系統(tǒng)來自知名的技術(shù)名稱,例如Google Cloud Vision,Microsoft Azure的Cognitive Services Computer Vision和IBM的Watson Visual Recognition。
我們都知道AI仍在開發(fā)中。此外,隨著時間的推移頻繁使用它只會變得更好。但是,研究結(jié)果表明,男人比女人更傾向于男人。該研究還使很多事情受到質(zhì)疑。
Wunderman Thompson的數(shù)據(jù)小組進(jìn)行的研究檢查了視覺AI系統(tǒng)是否以與女性相同的方式對待穿著PPE套件的男性。在不同的條件和質(zhì)量下總共拍攝了256張性別的圖像。
研究中使用的所有AI系統(tǒng)均表現(xiàn)不佳
根據(jù)ZDNet的報告,研究中使用的AI系統(tǒng)都無法執(zhí)行我們可以稱做恒星或至少良好的人工智能系統(tǒng)。而且,所有人都發(fā)現(xiàn)很難在男人或女人的臉上發(fā)現(xiàn)口罩。
但是,戴著口罩的男性面部要比戴著口罩的女性面部更容易識別。Google AI的遮罩研究給出了一些令人震驚的結(jié)果。它可以識別出28%的女性圖像,因?yàn)樗齻兊淖毂荒z帶覆蓋了。而且信心高達(dá)95%。其他8%的情況下,人工智能檢測到戴口罩的女性,因?yàn)樗麄兪敲娌棵l(fā)的女性。
IBM的數(shù)字也不是很好。結(jié)果顯示,有23%的女性戴口罩。同時,在其他23%的案件中,可以肯定的是,婦女戴著鏈條或約束裝置,而不是戴口罩。同時,只有5%的案例顯示出預(yù)期的結(jié)果。
微軟的計算機(jī)視覺似乎已經(jīng)被很好地編碼。結(jié)果表明,有40%的情況是因?yàn)榕源┲恍r尚配飾,還不錯。在其他14%的時間中,它將女性臉上的面具識別為口紅。它只有5%的時間檢測到女性臉上的面具。
這項研究對像Google,IBM這樣的成熟AI系統(tǒng)的教育提出了質(zhì)疑
研究人員沒有仔細(xì)檢查這些AI系統(tǒng)的制造者,而是很好地揭示了這些AI系統(tǒng)所面臨的偏見。
此外,盡管AI會隨著時間的流逝而從學(xué)習(xí)模式中進(jìn)行自我教育,但最終最終結(jié)果還是由人類來承擔(dān)。此外,制造商應(yīng)確保他們反映的是一個中立的社會,而不是普遍存在性別偏見的歷史社會。
這將使自動化進(jìn)入預(yù)期的路徑。因?yàn)槿绻镜亟Y(jié)果令人震驚,那么訓(xùn)練數(shù)據(jù)肯定存在問題。