TOP > IT・テクノロジー > 「なぜ」を理解するAIの構築を、あの人工知能の第一人者は目指している|WIRED.jp

「なぜ」を理解するAIの構築を、あの人工知能の第一人者は目指している|WIRED.jp

30コメント 2020-02-27 08:07 | WIREDキャッシュ

人工知能(AI)に大きな飛躍をもたらした深層学習(ディープラーニング)。だが、その研究の第一人者であるヨシュア・ベンジオは、この技術にはいまだ大きな課題...

ツイッターのコメント(30)

@J_kaliy 深層学習がやっているのは相関関係の学習ですね。

深層学習でチューリング賞を受賞したヨシュア・ベンジオも「因果関係の学習が課題」と指摘しているそうです。
因果関係を学習するAI
ググッた感じ、過去のインプットをすれば想定内はアウトプット可能。(これだけで相当頭狂うw)
想定外は・・・。

@wired_jp
子どもの「なぜなぜ攻撃」は、子どもの発達には不可欠。それは人工知能でも同じようです。
AIを学ぶことは、人間を学ぶことと通ずる気がしてる。

“人間の経験から学べることは明らかだとも、マーカスは指摘する。「子どもたちが『なぜ?』と問いかけるときには、因果関係を尋ねています。機械が理由を尋ね始めるようになれば、いまよりはるかに賢くなるでしょうね」”
AIには
”物を落とすと物が壊れる”
の因果関係がわからないとはいうものの
他方では
”球を落とすと地面で跳ねる”
という因果も存在する訳で一義的な事じゃないんだよな

現在は因果律を利用者が与えているAI
AIが利用者に因果律を問うようになったら
人は答えられるのかな(笑)
>パターン認識だけでなく、因果関係も推測
>どの変数同士に因果関係があるのか仮説を立て、変数を変化させたときにその仮説がどれほど当てはまるのか
ディープラーニング、まだ底が見えないのか…
( ..)φ→「因果関係を理解することは、まったくもって不得手だ。深層学習のアルゴリズムは、本物の医師とは異なり、与えられた画像になぜ病気の兆候があると言えるのかは説明できない。このため重大な局面での深層学習の利用は、慎重に考えざるをえないのだ」【「なぜ」を】
良い記事です。AIバンザイとか、AIコワいとか言う方にお勧め。

”ベンジオはインタヴューのなかで、企業がAIと深層学習の能力を誇張しているとして不満を示した。「ビジネス界では誇大宣伝が見られるため、それを是正する動きがあるといいと思っています」と彼は語っている。”
今やモデリングと因果構造は別にして説明しているのだけど、モデルが因果関係を明確に説明してくれる時が来るのだろうか
AIは因果関係が苦手らしい。僕はトップレベルで得意な方です。他にあと2つある。「縁」はどうします?

@wired_jp
この手の話、いつも思うんだが。人間は因果関係を理解できて、理由を説明できる、という前提でAIにそれをやらせようとしてるが、本当に人間はそれをやっているのか?
今まで一般向け記事にはしにくかった話題を噛み砕いてあると思う。
そのぶん「厳密にはその表現はどうなの?」という部分は多少あるにせよ、一般向けに書き下ろすにはそうするしかなかったのかも。
色々と考えが膨らむ良記事👍
人工知能(AI)に大きな飛躍をもたらした深層学習(ディープラーニング)。だが、その研究の第一人者であるヨシュア・ベンジオは、この技術にはいまだ大きな課題があると話す。
"何らかの因果推論能力を備えない限り、AIの能力は根本的に制限されてしまうと主張していた"

因果推論能力を備えない人達が色々決めようとしてるけど、能力制限されてるのかな?人間の意味🥺

@wired_jp
「なぜ」を理解するAiの構築を、あの人工知能の第一人者は目指している
あまりに多くの深層学習が、因果関係のない相関関係にフォーカスしているため、深層学習システムが役に立たないケースが多く見られます★| @wired_jp
どちて?なんでなん?なにゆえ…がインプットできていないそう。これって子どもが親に一時矢のように放つコトノハ✨

@wired_jp
「(事故を想像することで)実際に事故が起こった場合に備えて頭のなかで準備できるのです」反実仮想っぽいにゃ🐱
@wired_jp
相関関係の把握から因果関係の理解へ。
人工知能はここでムクムクと仮説検証したくなるだろうから、それをコントロールしないといけない。

@wired_jp
DLは帰納法的なパターン認識は得意だけど、仮説設定するアブダクションのような推論はまだまだ。なぜそうなるか、コトの関係性をつかむロジックが、AIをブレークスルーさせるということか。/ @wired_jp
因果推論や Judea Pearl 『The Book of Why:The New Science of Cause and Effect』について触れられている記事

「なぜ」を理解するAIの構築を、あの人工知能の第一人者は目指している|WIRED
*
原因と結果を理解できるようになれば、現在のAIシステムはさらに賢く、効率的なものになるだろう
@wired_jp
「なぜ」がわからないAI

深層学習は理想的な状況においてはうまく機能する。しかし因果関係を推測できない限り人間の知能を再現できるレベルに達することはない。
物を落とせば壊れることを理解したロボットは花瓶をいくつも床に落として何が起きるのかを調べなくても済む。
AIが「なぜ」を理解し始めたらどうなるんだろ🤖🧠

深層学習システムは、物事を一般化したり、ある状況で学習したことを別の状況に応用したりするのが苦手だ。また、ニワトリが鳴いて太陽が昇るといった相関関係がある事象を記録できても、その因果関係は考慮できない。
以上
 

いま話題のニュース

もっと読む
PR