TOP > IT・テクノロジー > フェイスブックのAIにも「認知バイアス」による偏見が潜んでいた|WIRED.jp

フェイスブックのAIにも「認知バイアス」による偏見が潜んでいた|WIRED.jp

12コメント 2019-05-07 09:05  WIRED

被写体を自動認識するフェイスブックのAIカメラが、黒人女性を“素通り”してしまった──。そんな事実が、同社の開発者カンファレンスで明らかにな

ツイッターのコメント(12)

@wired_jp
去年のニュースで海外の事例だけど、AI と差別、倫理みたいな話は、それなりに流行のトピックという認識である。
ブロックの原因は、フェィスブックに認知バイアスの歪み( )で、過度にAIに依存してるために、 コンテクストが読み取れないことによるものでした。
(人間が介入したいなら正直に人間がやれば)「多様性に対応できるAI」をつくり出していく重要性を強く感じたと、彼女は話している/フェイクニュース判定にも認知バイアス/テクノロジーの進化だけでは解決できない / “フェイスブックのAIにも「認知バイアス」による偏見…”
コンピューターヴィジョンを支えるシステムを訓練するために使われているデータセットに内在する、人種や性別の偏りを調べるところから始めなければならなかった★| @wired_jp
AIに学習させるのは人だから、どういう情報を学習させるかで、どう育つかが変わるってことなのかな? そう思うと、人間の学習にも通ずるのかも。

@wired_jp
AIの認知バイアス

黒人を認識できないAI、まだ技術の発展途上
@wired_jp

興味深い記事ですね。
原因が判らないのが致命的です。
最近は原因究明用の仕組みを仕込んだAIが増えているようてすが。。。
ディープラーニングとかの処理システムのベースは人間の神経網を数学的に模しているわけだから、どんなに複雑な処理を行うとしても結果として認知バイアスは生じちゃうよね。画像認識なんかは特に

@wired_jp
入力データが偏れば、機械もあっさり偏る話

@wired_jp
内視鏡の癌診断AIで、教育データがバイアスかかってて、「真ん中に映ってる」「怪しい画像」(医師は怪しい画像は真ん中に映して判定しょうとするので)、やり直した話を思い出す。

@wired_jp
以上
 

いま話題のニュース

もっと読む

 
PR