科技改變生活 · 科技引領(lǐng)未來
營銷公司W(wǎng)underman Thompson的數(shù)據(jù)小組進行的一項最新研究表明,當對戴著口罩的人進行測試時,成熟的AI系統(tǒng)(如Google AI)存在性別偏見。
這項研究中使用的AI系統(tǒng)來自知名的技術(shù)名稱,例如Google Cloud Vision,Microsoft Azure的Cognitive Services Computer Vision和IBM的Watson Visual Recognition。
我們都知道AI仍在開發(fā)中。此外,隨著時間的推移頻繁使用它只會變得更好。但是,研究結(jié)果表明,男人比女人更傾向于男人。該研究還使很多事情受到質(zhì)疑。
Wunderman Thompson的數(shù)據(jù)小組進行的研究檢查了視覺AI系統(tǒng)是否以與女性相同的方式對待穿著PPE套件的男性。在不同的條件和質(zhì)量下總共拍攝了256張性別的圖像。
研究中使用的所有AI系統(tǒng)均表現(xiàn)不佳
根據(jù)ZDNet的報告,研究中使用的AI系統(tǒng)都無法執(zhí)行我們可以稱做恒星或至少良好的人工智能系統(tǒng)。而且,所有人都發(fā)現(xiàn)很難在男人或女人的臉上發(fā)現(xiàn)口罩。
但是,戴著口罩的男性面部要比戴著口罩的女性面部更容易識別。Google AI的遮罩研究給出了一些令人震驚的結(jié)果。它可以識別出28%的女性圖像,因為她們的嘴被膠帶覆蓋了。而且信心高達95%。其他8%的情況下,人工智能檢測到戴口罩的女性,因為他們是面部毛發(fā)的女性。
IBM的數(shù)字也不是很好。結(jié)果顯示,有23%的女性戴口罩。同時,在其他23%的案件中,可以肯定的是,婦女戴著鏈條或約束裝置,而不是戴口罩。同時,只有5%的案例顯示出預期的結(jié)果。
微軟的計算機視覺似乎已經(jīng)被很好地編碼。結(jié)果表明,有40%的情況是因為女性穿著一些時尚配飾,還不錯。在其他14%的時間中,它將女性臉上的面具識別為口紅。它只有5%的時間檢測到女性臉上的面具。
這項研究對像Google,IBM這樣的成熟AI系統(tǒng)的教育提出了質(zhì)疑
研究人員沒有仔細檢查這些AI系統(tǒng)的制造者,而是很好地揭示了這些AI系統(tǒng)所面臨的偏見。
此外,盡管AI會隨著時間的流逝而從學習模式中進行自我教育,但最終最終結(jié)果還是由人類來承擔。此外,制造商應(yīng)確保他們反映的是一個中立的社會,而不是普遍存在性別偏見的歷史社會。
這將使自動化進入預期的路徑。因為如果本地結(jié)果令人震驚,那么訓練數(shù)據(jù)肯定存在問題。
李熙遠
版權(quán)所有 未經(jīng)許可不得轉(zhuǎn)載
增值電信業(yè)務(wù)經(jīng)營許可證備案號:遼ICP備14006349號
網(wǎng)站介紹 商務(wù)合作 免責聲明 - html - txt - xml