TOP > IT・テクノロジー > TechCrunch Japan > 画像認識システム...

画像認識システムを騙して空港の警備をすり抜ける方法…Googleの研究者たちがステッカーで実験 | TechCrunch Japan

27コメント 登録日時:2018-01-03 15:00 | TechCrunch Japanキャッシュ

機械学習のシステムは、有能ではあるが必ずしもスマートではない。彼らには、常識がない。そのことにつけこんだ研究者たちが、画像認識システムに対するおもしろい攻撃テクニックを作った。彼らが作った特殊なステッカーは、AIにとって、あまりにもおもしろくて興味深いので、結局そこに何も見いだすことができないのだ。そのステッカーが、アクセサリーとして流行りそ...

Twitterのコメント(27)

これ実験したい! /
これがAI迷彩ってやつか。 |" "
これは面白い試みだね。 ||
結構キモいステッカーで笑う
コンピュータが『目を奪われる』マーク
ちょっと面白い
バナナ忘れる赤ちゃんAIかわいい。ー
画像認識モデルに意図的に誤認識させるadversarial examplesの話が最近本当に多い。画像認識だけではなく音声認識でも出てきているし。従来のシステムとは異なる性質のセキュリティホール
人間の視覚のバグみたいなものを突き詰めるのは面白そう
ヒッピーの服とかやばそう
なるほど|
SQLインジェクションTシャツみたい /
AIを騙す方法が意外に人間的 ☞
パワーないと前準備できなそうだけど、アツいな……
画像認識の盲点を突く方法。
開発している側だからこそのひらめき
認識とは何かという問題、機械を信用していいのかという問題を突きつける刺激的な研究だと思う。顔認証も、顔に怪しい模様をペイントすると無効化できたりして^^;
元の論文読んでないんであれですが、Vision APIは騙せないらしい。
なるほど
読んでる→
ほぅ。NIPSで発表された研究。 /
画像認識も得手不得手あるらしいしなぁ /
以上

記事本文: 画像認識システムを騙して空港の警備をすり抜ける方法…Googleの研究者たちがステッカーで実験 | TechCrunch Japan

関連記事

画像で見る主要ニュース