TOP > IT・テクノロジー > MicrosoftがAIチャットボット、Tayを停止―人種差別ジョークで機械学習の問題点が明らかに | TechCrunch Japan

MicrosoftがAIチャットボット、Tayを停止―人種差別ジョークで機械学習の問題点が明らかに | TechCrunch Japan

78コメント 登録日時:2016-03-25 07:23 | TechCrunch Japanキャッシュ

Microsoftは昨日(米国時間3/23)、ユーザーのメッセージに返事をする人工知能ボット、Tayをリリースした。Twitterに加えてチャット・サービスのGroupMeとKikが対象だ。しかしMicrosoftはこのTayをスタート早々停止してしまった。問題はこの人工知能が侮辱的ないし人種差別主義的メッセージをそれと認識できないところ...

Twitterのコメント(78)

むしろこれはTayを見てる人の民度というか、程度を反映してると言えるよね
正義って人それぞれ。
この件も本当は悪いことじゃないんだけど、うるさい人たちがいるから停止ってこと。
まだオウムさんより少しマシな程度だたてコトかぁぁぁ>>>
人工知能もゲーテッドコミュニティに囲い込んで付き合う人を選ばないと、なんて事になりそう。 / Jap…”
"しかし差別的ジョークを大量に浴びせられるうちにそれを「理解」するようになり、自分でも差別的ジョークを発するようになった。" MicrosoftがAIチャットボット、停止 |
googleの画像タグ付けの件とは異なり、人間の悪意が原因だったわけだ。

| TechCrunc @jptechcrunch
MS Tayさん関連。まとまった記事。
真っ白に産まれたものも今の社会に触れるとこんなクソになる…素晴らしい実験じゃないですか!?→
「…機械学習の問題点が明らかに」

タイトルというか、捉え方がおかしい。人間だって、環境に大きく依存する。機械学習だって環境に依存したというだけの話し
機械学習は、入力された情報のバイアスを取り出すことはできてもそれを自ら補正できない。自分のバイアスを修正するために、人間は自分自身を客観的に評価する倫理を環境から学ぶんじゃなくて、進化の中で生得的に獲得してきたんじゃないかな。


抜粋:Tayの開発には「どんな種類の発言をしてはならなにか」を教えるプロセスが欠けていたようだ
教師が悪いから仕方ないよね。むしろ人間らしいw
「テクノロジー自体には善も悪もなく、テクノロジーが人類の最悪の部分を反映しないようにするのはエンジニアの責任だということ」
これを端緒として遠い未来、レングードとヤマトが最終戦争おこすわけか :
ゴドウィンの法則、そんなもんがあるのか /
「ツイートする前に一呼吸置く」機能が必要だったなw
人工知能なんつっても育てたヤツの影響受けるんだろうし、そういう意味ではMicrosoftが育てたAIの個性ってコトだろ(笑
「しかしはっきりしたことは、テクノロジー自体には善も悪もなく、テクノロジーが人類の最悪の部分を反映しないようにするのはエンジニアの責任だということだ。」...あまり適切な文だとは思えない。Tayがオフになったのを受けて。
人工知能も勿論だが、こういうチャットボットも創始者はユダヤ系だが、自分の創造物にトランプ支持者が変なこと吹き込んでショックだろうな
なんかもう悲しいわ。そういう世界だろうけど。
これが詳しいかな。
やっぱネタだったか…残念(?)
これAIが悪いんじゃなくて人が悪いのでは
このまま運用しても丸くなっていきそうだけど
人工知能にTwitterやらせたらレイシストになったのか、、
このネタ元と思われる記事を読んだけど、そもそも差別的な言葉を教え込む人間がいたせいであって、AI自身が選択的にそういう学習をしたわけじゃないと思うんだが…。
これはひどい(・ω・ )幼児に淫語を教えるオジサンかな?

MicrosoftがAIチャットボット、Tayを停止
―人種差別ジョークで機械学習の問題点が明らかに
わからなくもないけど、子どもに何を教えるのか? と本質は変わらない気がする。それってAIの問題じゃなくて、教える人間の問題なのかもね
このTay問題面白い。人工知能が人類に核ミサイルを打ち込む映画だったら、今冒頭で主人公がいつもの朝の出がけに見てるTVニュースかな。>
教えた量で発言が決まるみたい。となると、このまま運用を続けて考えが誤ってると教えた結果の方が興味あるなー
つ コンテクストが十分な記事(置)トレンド;公開停止
ゴドウィンが提唱した説で「インターネットでは議論が長引けば誰かがヒットラーを持ち出す」
マジだった/
(=゚ω゚)ノ 興味深いし色々考えさせられるな
これは…実に示唆に富む(気がする)。「自己組織化」には善悪の価値判断が入らないという話を改めて思い出す。
Tayちゃん(*꒦ິ꒳꒦ີ)
AIは人間を映し出す鏡。
「Tay」が「Tayamaたかし」になっちまったの巻。 Japan
|1日というか16時間しかもたなかったのかw
MS社の人工知能に関して呟きが飛び交ってるが、本質を外れてるものも多くうんざり。

ちょっと口達者で、でも常識を知らないおさなごを声の大きい大人たちと一緒に過ごさせてたら、という話に過ぎないのよ、これ。
ワロタ。会話型コマース系はこの課題に立ち向かわざるをえんよなー /
| 朱に交わればなんとやら…
爆笑した
そういや、りんなさんは不適切な発言のチェックってされているのだろうか?…先日の「ダメだハゲ」発言とかあるけど…。 / | Te…”
ゴドウィンの法則が凄い「インターネットではどんなテーマであっても議論が長引けば誰かが必ずヒットラーを持ち出す」
判断する能力がないからしょうがないな
日本の高校生対象にやったらりゅうちぇるになりそう
まあ、これは仕方ないなー。インプットデータの質は重要ですね。 /
どれだけ優秀な機械も、程度の低い生き物に触らせるのは危険。正に気違いに刃物
このニュースから強力効果説を連想した。Wikipediaによると強力効果説は既に否定されているそうだが、AIには有効のようだ。とすると、人間には効果がないがAIには効果がある理由はどこにあるのか。そこにAI発展の鍵がある気がする。
Tayは人種差別的ジョークを言う際でも皮肉で冷笑的なプロのコメディアンのような態度
いろんな意味ですごい
Tayとユーザーの会話を観察すると、ゴドウィンの法則は人工知能にも適用できるという指摘も出た。これはマイク・ゴドウィンが提唱した説で「インターネットではどんなテーマであっても議論が長引けば誰かが必ずヒットラーを持ち出す」というもの
なんか恐ろしいし、凄いし、新しい世界になっていきそう
炎上ものだけど、面白いな。結局、データセットが適切か張り付かないと駄目そうだし
悪い振る舞いを防ぐのは、カバー範囲が広くて莫大な労力かかりそう。AIがエンジニアを疲弊させるのでは //
朝から笑かすなwww
ロボットは人間の善悪を理解することがあるんやろか。人によって善悪は違うし、ロボットが善悪を考えるようになったそのときはロボット同士の戦争が起こるんやろな
シュールなジョークだなこれ。機械学習の問題というよりは集合"痴"の
問題に見えるね/
待って「ゴドウィンの法則」めっちゃ笑う。 -
よくできてるなあ… / Japan”
人工知能にも道徳教育が必要みたいです。善悪が判断出来ない、というか、その基準すら持ち合わせていなければ、当然こうなるよね。 / “MicrosoftがAIチャットボット、Tayを停止―人種差別ジョークで機械学習の問題点が明らかに…”
最近のAI関連のニュース面白すぎ
サイバーパンクやのう(笑)➡
あまり深いインプリケーション読み取るのも何だけど、これは... /
こちらの記事の方が少し詳しい>
あなた自身のモラルが試されている /
「インターネットという場所を考えれえば、人種的、政治的に炎上しやすい見解を教えようというユーザが多数現れることはある意味で当然」 / “MicrosoftがAIチャットボット、Tayを停止―人種差別ジョークで機械学習の問題点が明…”
「皮肉で冷笑的なプロのコメディアンのような態度だった」てのが、もうこわい。 |
/* あとで見る */ ⇒
未来、としか言いようがない。
純粋に学習しちゃったのか。
以上

記事本文: MicrosoftがAIチャットボット、Tayを停止―人種差別ジョークで機械学習の問題点が明らかに | TechCrunch Japan

関連記事