TOP > ネタ・話題・トピック > GIGAZINE > 機械学習によって...

機械学習によって解決できるかどうかが証明不可能な学習モデルが発見される - GIGAZINE

27コメント 登録日時:2019-01-10 08:41 | GIGAZINEキャッシュ

機械学習の発達にはめざましいものがあり、画像の中から特定のオブジェクトを認識したり人間の声を正しく認識したりと、機械学習を用いた多くのAIが登場しています。しかしそんな機械学習にも「解決できるのかどうかの『証明』ができない問題」が存在すると、コンピューターサイエンスの研究者が指摘しています。...

Twitterのコメント(27)

@seibibibi 方向性はそのような感じですね.
私も話を聞いたことがあるくらいで,理解はまだできてませんが,集合論における連続体仮説は機械学習などへの結びつきにはなるようですね.
これです
今の人口知能のシステムだと証明も反証もできない命題が存在するらしい。人工知能でも不完全なんだなー...
昔の学習モデルでも、学習可能かどうかって話があったな|
逆に今までなかったのって感じだけどな。
証明不可能というなら「解決できます」としても矛盾しないんでしょ。それで誰も困らないのでは? / “ - GIGAZINE”
応用上は気にしなくていいと思うよ
ふむ。
酔った頭では日本語が理解できん。

GIGAZINE: 機械学習によって解決できるかどうかが証明不可能な学習モデルが発見される.
機械学習版不完全性定理。でもある種のニューラルネットワークがチューリング完全性を示すことから停止問題を構成できるから、ある種の証明能力の階層性ができることは普通じゃないか。
ベクトルやグラフ、ラムダで意味を表現する手法はループのないツリー構造を前提としている。例えば画像からキャプションを生成するモデルにエッシャーのだまし絵を入力したらどうなるか?人間なら全体を見てループ構造に気付けるが、現在の機械学習は停止性問題に陥るのでは?
連続体仮説が出て来る機械学習の論文、興味あるけど理解力がまったく追いつかない
連続体仮説!
#アゲドリ備忘録
AI、ディープラーニング、機械学習神話信仰に対して楔となる研究結果だねぇ
Ben-David氏ら。機械学習における学習可能性を考える際、不完全性定理および連続体仮説に結びついているために、学習可能かどうかを判別できない機械学習モデルがあることを発見。
不完全性定理(証明も反証もできず、自身の無矛盾性も証明できない公理)及び連続体仮説はAIも勿論ムリってだけ。人間が不可能なモノはAIも基本ムリと覚えておくと理解が早い。
(ゲーデル)警察だ! / “ - GIGAZINE”
機械学習によって解決できるか証明不可能な学習モデル。ゲーデルの不完全性定理にかかわるモデルで、たとえば「どのユーザーが広告を見て特定のウェブサイトを訪れるのかが判明していない状態で、最も多くのユーザーを引き寄せる広告を見つけ出す」
これ、どういうことか気になる
興味深い
GIGAZINE: 機械学習によって解決できるかどうかが証明不可能な学習モデルが発見される.
経験的には分かってたことだけど、こう言われると納得だ。世間じゃシンギュラリティ云々で盛り上がってるけど、汎用型AIの登場はまだまだ先だと思うね。
@Brahms10 具体的にはどんなことが困るの?直接扱わない人には関係ない?
機械学習の産業応用へのインパクトはそんなない気もするけどここで不完全性定理が出てくるのはアツいな
うーん、分からん😇
「不完全性定理および連続体仮説に結びついているために、学習可能かどうかを判別できない機械学習モデルがあることを発見」

/
以上

記事本文: 機械学習によって解決できるかどうかが証明不可能な学習モデルが発見される - GIGAZINE

関連記事