TOP > 社会 > EU、AIに倫理指針 人種・性別の差別防ぐ  :日本経済新聞

EU、AIに倫理指針 人種・性別の差別防ぐ  :日本経済新聞

71コメント 2018-11-06 03:28  日本経済新聞

欧州連合(EU)は、人工知能(AI)の倫理指針を策定する。有識者会議の原案が判明。企業にAIの判断過程をわかりやすく説明させるなどの内容で、2018年末までに欧州委員会が最終案を作る。AIは融資や人

ツイッターのコメント(71)

僕らはAIのある世界で生きている。そんな実感がない。
AIは融資や人事採用での活用が広がるが、人種や性別などの偏ったデータをAIが読み込み、差別的な分析が増える懸念も出ていた。
企業にAIの判断過程をわかりやすく説明させる

AI言うてもエキスパートシステム程度のものなら判断の過程もわかるやろけど、ニューラルネットワーク系のでそんな真似できるんかいな?

EU、AIに倫理指針 人種・性別の差別防ぐ: 日本経済新聞
潜在的バイアス問題でそういやこんなニュースが
AIはブラックボックスになりやすいし
AI採用が流行ったら日本でも学習データや手法についての説明責任が発生するようになるんかね
「指針には、違反への罰則などは盛り込まない見通しだが、EU各国で指針を参考にした規制法が作られる可能性もある。」

この辺りが気になりますね。
人工知能つまりデータ分析にとっては差別ではなく区別と認識する可能性も大…さりながら人間の判断もかなり恣意的主観的→使用言語にもダイバシティ!16言語🗽ツイートにも自由を!!!❣️
お前は何を言っているんだ→“企業にAIの判断過程をわかりやすく説明させるなどの内容” / “  :日本経済新聞”
EUはいつもヒューマニティが素晴らしい。ただ、それだけなのが残念ではあるが。 / “  :日本経済新聞”
EUらしい、と言わざるを得ないぐらいの倫理指針策定を今年中に。
人間でもロジックじゃ伝えれない時があるように、説明可能なAIと説明不可能なAIはあるし、深層学習でのデータ分析ってまだまだ課題ある感覚。
欧州連合(EU)は、人工知能(AI)の倫理指針を策定する。有識者会議の原案が判明。企業にAIの判断過程をわかりやすく説明させるなどの内容で、2018年末までに欧州委員会が最終案を作る
その中立を担保する神はいったいどこにおわすんですかね.
ふむ、興味深い
差別的な事なのか、区別なのな
(1)AIの判断過程をわかりやすく説明する責任を企業に課す
> (2)判断にどんなデータを使ったかなどの情報開示制度を整える
無茶苦茶言うなよ… これができたらAIなんて作らなくても普通のシステムでできるって…
差別するのは
AIではなく、AIを扱う人

企業や国としては
AIへの情報のインプット時に
的確なスクリー二ングをかけれるか

個人個人としては
倫理観を養...
(2)判断にどんなデータを使ったかなどの情報開示制度を整える

これ結構怖いやつだ
EU、AIに倫理指針、人種・性別の差別防ぐ。個人データ保護法からの流れでもあるんだね。グローバルスタンダード作りへ。
最適化して性別や人種が差別されるのは仕方ないのでは?
なら、勉強できない人を採用しないのも差別になる
差別化するから採用基準があるのだから今さらそんな事を言ってどうする
差別しないのなら試験などやらないで来た人全員採用するしかない
AIは人を映す鏡ゆえ。>「AIが人種や性別などに偏った分析や判断を拡大させる危険」
ほーん。
判断過程に読み込みデータまで規制かけるんだったら、最終的なデータの抽出までEUがやればって感じ。

そもそも、単純なデータ見ただけでそれが倫理的に大丈夫か判断できるとかEUヤベェな
どれだけ複雑なアルゴリズムと詳細なデータが必要なんだよ
前にAmazonの人事採用AIが男尊女卑で問題になってたよね。AIに過去のデータだけ注入しているとそういう問題も出てくるのだろう。だから、AIには理想となる思想も注入すべき。そういう点で、この方向性は良いと思う。
「指針の原案は、欧州議会が委託した有識者会議「AIフォー・ピープル」が近く公表する」>
AIにもその国の法律をINPUT(改正があればその都度)させることが大前提だけど、AIは分析屋じゃなく知能なんだから、人を凌駕するいい判断をする時代がいずれ来ると思う。
法規制を時代にあわせるためのチェック機関は必要だけど、人がAIを過度に管理する必要はあるのか?
EU、AIに倫理指針。

欧州の優れたところは、優れた学者が産業の先頭に立って規格やルール作りをするところだろう。
日本は何十年経っても理解しない。

AIは欧州オリエンティッドの技術になるぞ。

アジアは猿真似していればいいのか?
また、都市伝説で取り上げられそうなやつw
「AIのやったこと」「AIの判断したことであずかり知らない」「AIを信じていたが裏切られた想いだ」「AIと開発者の責任を求めていく」……

「なるほど、そういう使い方もあったか」(某政権党首)。
ああ、AIに人権与えるかどうかの話かとおもたわ!未来はまだこないな『 人種・性別の差別防ぐ』
:人工知能(AI)の倫理化 … 「みんな(の情報)はひとり(の存在保護)のために」を優先させてもらいたい♪
倫理崇拝。倫理は実在するのか?宗教(倫理道徳法律)の押しつけで差別(スケープゴート)が必要になったのに、同じことを繰り返そうとする。自ら被造者AIのレベルに下ってる。バカじゃないの?と思う。どうせ彼らが有能なAIに仕返しされるだろ。LOL。
これ、問われているのは人間側の絶対善。この手の技術の悪用は残念にもいずれ出てきそうだけれど、絶対善でやるぞと釘を刺す姿勢は重要と感じる。スカイネットのディストピアを現実にするのは、AIではなく人間。
AIの判断過程分かれば誰も苦労してないんだよなあ
最終的にパラメータとかを公開するくらいしかなさそうだけどそれで納得するの?
なかなか興味深いな。AIは自己学習をするので人間がコントロール出来なくなるという可能性が不安の一つにあるが、EUはAIがどのような思考をし、どのようなデータを供給するかがわかればAIの行動も予想出来るという前提で対処を考えているようだ。
AIが人種や性別などに偏った分析や判断を拡大させる危険があるとの指摘も出ている。AIは、まず人間が読み込ませた過去のデータから独自の判断基準などを学習。次第に自分でデータ収集を始め、分析結果を出す。もとデータに差別的な偏りがあれば、それを助長しかねない弱点あり
AIだと汚職しなさそうだし、どんどんAIに任せていこう。
それ以前に、AIとは何かを国際的定義すべき。将棋ソフトと全く同じだから、「組み込みソフト」じゃないの?「知能」とはおこがましい

>人種や性別などの偏ったデータをAIが読み込み、差別的な分析が増える懸念も
(1)AIの判断過程をわかりやすく説明する
ソースコードを公開させないと実効性ないと思うが。  人種・性別の差別防ぐ
AIって膨大なデータをコンピューターが読み込んで人には見つけられない傾向を読み込んで判断するものなのに、人に説明なんて出来なくない?
透明化で差別助長防止へ
差別を知らないAIが差別的な判断をした時、人間が制止するのがまっとうな人間社会。差別の表出を恐れてAIを規制すれば理性の敗北
AI()の判断過程を透明化することはある程度必要だろうけど、「わかりやすく説明」というのは誰相手を想定しているのだろうか。記事内にあるAIを監査・認証する人?それともAIに融資や人事採用を断られた人??
先日、警察学校をクビになった人の漫画が話題になったけど
私の感想は、『何でそこまで通してしまったのか?・・・』

人事をAIに委ねるって
人選びの責任を放棄してるようにしか思えない・・・(ー_ー:)>
AIの判断過程をわかりやすく説明www 山本一成さんらは「ブラックボックス化してて正直わからない」等と仰っていましたが、こんな方針が打ち出されるのはアンチAI化なのかな?
人間だって同じなんだよなぁ
EUはマジでどうしたの?
それが出来るならAIではないものをAIと呼ぶことになると思うんだが?
差別のない差別にならないか?
前にあった、AI同士?が人間に分からない言葉で会話し始めて慌てて止めたみたいな、意図した機能じゃないのに⁈っなるのも想定してるのね。


って、...
システムが人を管理する時代はすぐそこまで来ているのではなく、既に管理する時代になっているのだと判る事例。
未来社会は明るいのだろうか。
年内に最終案「AIは、まず人間が読み込ませた過去のデータから独自の判断基準などを学習。次第に自分でデータ収集を始め、分析結果を出す。もとのデータに差別的な偏りがあれば、それを助長しかねない弱点がある」 / “EU、AIに倫理指針…”
>企業にAIの判断過程をわかりやすく説明させるなどの内容
→は?現在のAIと呼ばれているモノ(機械学習)は、経験値を積み重ねる事で結果を導き出しているので、判断過程を説明できないのが弱点なんだよ。何にもわかってねぇなw

 透明化で差別助長防止へ
ヨーロッパは、いつも対応が早いね。#EU #AI #倫理指針 ・・・
「企業にAIの判断過程をわかりやすく説明させる」って物理的に可能なのか??
AIに学習させる元データに偏りがあれば、偏屈なAIの完成っと
機械学習したAIの「判断基準」なんて人が理解できる形に透明化できるものなの?
深層学習終了のお知らせ(煽り) EUって何でこう極端に振れるんだ……
学習用データを開示することはできるんでしょうけど、AIがなぜそう判断したのかを人間が理解できるように開示できるんだろうか?
「深層学習なので、なぜそう判断したか分かりません」はダメ→企業にAIの判断過程をわかりやすく説明させるなどの内容で年末までに最終案を作る。AIは融資や人事採用での活用が広がるが、差別的な分析が増える懸念も出ていた
 透明化で差別助長防止へ:日経
また。先越されました。そろそろゲノムもつぎが出てきそうです。

「EU、AIに倫理指針」
判断過程が分かりやすく可視化出来てしまうんだったらそれはもともとAIと呼ぶよりは単なるロジックなんだし、人間の思考過程を可視化せよと言うのと変わらないからちょっと無理筋じゃないかと
凄い時代になってきた
AIが差別のない平等社会を実現してくれる──てか!(◎_◎;)
AIが人間に取って代わって仕事をするのであれば、差別も偏見も人間に取って代わって実現するのは当然だ(´・_・`)
論理的に正しいのに倫理的に間違っているというジレンマ。
倫理的に1+1=2じゃない!となった時、違う答えを作るのか、答えを作らないのか。
その公式を悪者にして曖昧さが残るの結果になる気がするけど。
言わんとすることはわかる。
規制が創出するイノベーションもある
以上
 

いま話題のニュース

もっと読む
PR