TOP > IT・テクノロジー > ITmedia > 「ディープラーニ...

「ディープラーニングは最小二乗法」で物議 東大・松尾豊氏「深い関数の方が重要」 - ITmedia NEWS

134コメント 登録日時:2019-02-20 20:50 | ITmediaキャッシュ

「ディープラーニングは、原理的には単純な最小二乗法にすぎない」――2月18日付けで公開された日経新聞の記事が物議を醸している。...

Twitterのコメント(134)


あのフローを見ると凄い複雑な処理をしている様に見えてしまい
全体の理解のハードルが上がってしまうが
確かに最小二乗法を多重活用してフィッティングしてると考えると
よく説明に使われる複雑なフローも理解できる
”「最小二乗法」が多くの人がぎりぎり理解できる地点がそこらへんまでなのだ”とのことだが、僕は理解できない地点だと思いますが。。。:
NEWS: 「ディープラーニングは最小二乗法」で物議 東大・松尾豊氏「深い関数の方が重要」.

深い関数ってなんや
ベーシックなモノは先生の言う通りかもね。

新しいのは、最小二乗法では無いと思うけど、最小二乗法を使ってた理由自体は残ってると思うから、そういう意味ではわかりやすく伝わってるかもね。

使うだけだと中身知らないでも使える時代だからね~
@j0hnta0

何日か前にTwitterでこれがプチ炎上してたんよね。内容は全然わからんけど。
ご本人はこれでバズったのは不本意らしいが、最小二乗法というのが「ちょうどよかった」のだったと思う |
この記事が出てくれたのはありがたい!あの記事は説明が面倒だった…。
DLは端的にいうと、深い関数を使用した最小二乗法。

まさにその通り。言葉足らずだと確実に伝わらない話。
こんな騒動があったのか…(´・ω・`)元記事読んだけど、言いたいことは分かるがあまりにも雑な感じ。というか「最小二乗法ってマジで超すっげぇんだぞ」という話ではないかなと。|
「ディープラーニングは最小二乗法」に過ぎない⁈何だかわからないが、タイトルが惹かれる。
ありゃりゃ、これはマズイと思います。が、一般の人に理解してもらえる範囲内で解説という事ならしょうがないのかな。
私もハンパな知識しかないけど、修士で同系統の研究してて
「まあ、あながち間違ってはいないよね」
と思う
最小二乗法というのは乱暴では、と思ったのですが、内容を読んで理解しました。

松尾先生は、"深い関数"の表現を重要視されています。最小二乗法はおまけのようなものです
つまりこう言うことです
最小二乗法のパターンマッチング的なことを特徴量に対してやってるだけだと思う
結局如何に特徴量を抽出するか

最近AIの化けの皮が剥がれてきたけど、そもそも脳が大したことやってない可能性
松尾豊先生が反省することに。
知ってる人には納得だけど、知らない人には誤解を招く説明ってあるね。
小林先生は松尾先生の説明を理解できてないし、某社CTOがやらかしたのの二の舞だし。

東大・松尾豊氏「深い関数の方が重要」.
これからのエンジニアの基本的な素養になるのは間違いない。
自分には深い関数が具体的にはわからないからよくわからん
「脳または脳細胞をシミュレートしている」では伝わらないのかな。脳細胞の論理的な動きは単純だと説明できる。で「学習=(シナプスの)結合係数の調整」。それがディープにつながったものだという説明でも無理? /  東大・松…”
大学院時代に最小二乗法ばかりやってた老教授がいた。講義は半分くらいの時間で終わり、あとはコーヒータイム。その記憶しかない。
結局、深い関数って何なのか良く分からない…
一見してわかるようにしようとして、一見しておかしくなってしまうというのはなんとなくわかる。
ディープラーニングは突き詰めれば、少し凝った最小二乗法。まあ当たらずとも遠からずであろう、人工知能と言ったって、所詮は人間が与えたデータを、人間が与えたプログラムで処理している事に変わりはない。PCが意識を持ち人間と会話するなど本気で信じてるならバカである。
そして、こうまとめられるのね...
ディープラーニングは名前の通り、深層ニューラルネットワークの「深層」の部分が大事だよね。他の機械学習とどう違うのかを説明するとなったら。
これだけ世の中に広がり、非専門家向けに手短に説明するキーワードを当てがったのかも知れないが、かえって混乱を与えてしまったようだ。
 東大・松尾豊氏「深い関数の方が重要」ITmedia NEWS
発言の方には特に誤解の余地はなかったと思う。雑だけど総論として的確な表現だ。誤解する読み手は勝手に「深い関数」を読み落として誤解してるんだよね。単なる不注意。 /
もはや専門家にも非エンジニアにもわからない表現に陥り出したな

> 「ディープラーニングは最小二乗法のお化けのようなもの」
理解してもらうための表現って重要だよなぁ
だから深い関数じゃ説明になってねえっつってんだろうが。
それと、ダメなディープラーニングおじさんの例はこれのことだったのかと今朝気付いた
頭良い人がよくやる、科学とかを一般人に伝える時「厳密には違うけど分かりやすいからこういう表現を使った」っていう話かと思ったけど元の文書読んだら違ってた(笑)
「ディープ」とそのままズバリ書いてあるのに「深い」の方が解説から抜けちゃう不思議。1層や2層ではないってことの方がキモの筈なのに。
最小二乗法で解けるなら世の中もっとシンプルでいいかもね。
あっているケースと間違っているケースがありそうな。入力を大量に食わせて正解を出すタイプはタイトルのとおりなのかもしれないが、AlphaGoみたいに試行錯誤を大量に行わせるタイプは違いそう。 /  東大・松尾豊氏「深い関数の…”
何も知らない人間だと何を議論しているかすら分からない展開なので勉強するしかない /
“「最小二乗法」がこれだけ話題になるというのは、逆に言うと、多くの人がぎりぎり理解できる地点がそこらへんまでなのだということを示してもいて、なかなか絶望的”
: 「ディープラーニングは、原理的には単純な最小二乗法にすぎない」――2月18日付けで公開された日経新聞の記事が物議を醸している。…
AIというネーミングに踊らされている現代社会。さらに言えば後顧的解析の未来予想にすぎない。無駄とは思えないが限界を知らないと誤用される。→
正確性を失い炎上した事例――

ITmedia: 「ディープラーニングは、原理的には単純な最小二乗法にすぎない」――2月18日付けで公開された日経新聞の記事が物議を醸している。
この例えの目的は「深層学習が魔法ではなく統計処理の塊だと伝えるため」であって「深層学習と他の統計処理の違いを説明するため」ではない。そこの認識差が今回の混乱の原因ではないか /
正確に伝えようとすると、専門的な言葉を使わざるを得ないのが難しいね。一言で言えば、機械学習やディープラーニングは統計を利用した最適化。最小二乗法は、統計的に一番良さそうな所をみつける方法。うーん、とても抽象的になってしまう。
イメージは確かに最小2乗法
最小二乗法の定義に関数型がどうあるべきかが含まれていないなら
損失関数として二乗和誤差を使ってそれを最小化しようとしてる(場合が多い)からおおむね間違っていないとは思う。

問題は深層学習だと関数系が線形近似じゃないことと、損失関数が他にもいろいろある点かな
テクノロジーの宿命なのかも。普通の人が技術を意識しないで済む分、理解されにくくなる。→
マスコミの切り取りの危ない例。
最近の慶應は教授のレベル低下が大きな懸念材料だよな。
何しろ、真っ赤な教授やら講師が多過ぎ!
"多くの人がぎりぎり理解できる地点がそこらへんまでなのだ"

理系でも数学が苦手な人にとっては最小二乗法も難しいけれど。損失関数を偏差の二乗で表す手法もなかなか深い。
AIについて分かりやすく説明してあげられなかったことに責任を感じるという教授の責任感に乾杯🍻

単純なわけない

“AIを活用した投資”などの雰囲気あるフレーズにご注意

その“AI”、エクセル関数のことかも
これ、物議になる時点でおかしいでしょ…
こんなん、日経が物事理解せずに記事にして恥を晒した というだけの話かと思う。
“「ディープラーニングは最小二乗法のお化けのようなもの」「従来のマシンラーニングは(階層的に)『浅い』関数を使っていたが、ディープラーニングは『深い』関数を使っている」と説明” /  東大・松尾豊氏「深い関数の方が重…”
深い関数って、伝わらないのか… /
うーむ。まぁ、学者が厳密な用語を「もののたとえ」に使えば、物議を醸すこともあるのは、しゃーないかな。いずれにせよ、ディープラーニングがヒューリスティックであることは間違いがない。つっても、ヒューリスティックってのが、一般人にはあんま通じないんだろうけどな。
“ディープラーニングを簡潔に解説するため「深い関数を使った最小二乗法」という言葉を使ってきたが、「深い関数を使った」という説明がいつも抜け落ちてしまうと嘆く。” /
日経でこれやられると突然経営層とかが簡単なロジックで動く全自動アシストマシンと勘違いして下に落として失敗して怒られてみんな損する未来が見える
深い関数って何のことだろう。
Githubを「設計図共有サイト」と書いた日経に多くは求めません
深い関数って言っても所詮は行列計算だし、Loss計算に最小二乗法を使っているんなら間違いではないけど。
NNの階層化と、その最適化学習という2つの論点があると思う。前者には「なぜ大きく表現力の高いDNNがうまく汎化するか」という謎があり、後者は「例示によるプログラミング」という新展開を生んだ。
多くの人に最小二乗法が通じないので、あまり実害なかったり /
> 「深い関数を使った」という説明がいつも抜け落ちてしまうと嘆く。

受け取る側の知識と、記事タイトルの文字数制限
少し勉強してるけど、、この理解をしてたわ。
東芝の島田さんがそのまま受け取ってアホな発言した件か
ううん…………
言いたいことは分かるけど……
“東京大学の松尾豊特任准教授…「ディープラーニングは最小二乗法のお化けのようなもの」「従来のマシンラーニングは(階層的に)『浅い』関数を使っていたが、ディープラーニングは『深い』関数を使っている」” /  東大・松尾…”
別に間違ってもおらんと思うんだけどね→
あー、あるあるだわー

分かりやすくしようとした例え(の一部)だけが独り歩きして本質が失われてしまう

これだがらバカは
"深い関数により表現力が革命的に上がり" お、おう /
なるほど、専門家の説明だけじゃ理解しきれないってことだよなあ。やっぱ自分で手を動かさないとか。 /
揚げ足取りのようで申し訳ないが「深い」関数ってなんだ…
「深い」関数よりも、関数の「表現力」ってワードのほうを広めるべき。非線形な活性化関数を使うことの意味を知るのが重要
なるほど「最小二乗法、という語」が「二つの世界」のギリギリの接点であり境界なんだな! >
その気持ちはよく分かる。『経営者や政治家など、AIに詳しくない非エンジニアに正しく理解してもらうための解説は「大変難しい」と痛感している』 /
個人的にはそんなに大騒ぎするほど大外ししているとまでは言えない気もするね。。最小二乗法のパラメーターを決定するのに、ニュートン法で決めるようなそんなイメージでも良さそう。

/
深く知らない僕がコメントすべき話ではないが、専門外の人に説明する難しさの話。 /
「深い関数」ってのがネットワークモデルで、「最小二乗法」はモデルパラメータを準最適化することを表してるんだろうな。前者が求める関数で後者は学習方法だから、これをまとめてしまうと訳が分からなくなる。 /  東大・松尾…”
素人がコメントする問題じゃないが、専門性が高くなると言葉が曖昧になる。「深い」とは何がどのように何と比べて深いのか全く不明だ(^◇^;)言葉の対応能力を超えるのか単に専門家の語彙力に問題があるのか。深いってdeepを訳しただけだし(^◇^;)
物議の元となった小林慶一郎教授の言いたいことはわかるけど、言ってしまった感が半端ない。機械学習の例えだったら、ここまでの騒ぎにはならなかったかも。
実はこの記事を読んでいて松尾先生にフォロー頂いていたことに初めて気がついたのですがどどどうして(滝汗)/
まぁ、の。
確かにそうだわな、としか。

そもそも最近は「ブーム」で「本質」より、「なんとなしに流行に乗ってみた」ってのが横行しすぎと感じるなぁ。
私も会社で同じ説明をしてる。そしてAIに幻想を描いている人は最小二乗法すら理解してない。
ええ・・・
スプライン関数ともよく比較される:
最小二乗法で、あながち間違ってない気がする
松尾さんも大変だなあ…
こんなんメディアがいつもやってる都合良く切り取られ曲解された情報と変わらないな
マス向けに言いづらいよね
「深い関数」とはどういうものかいな。説明求む。---
深層学習が最小二乗法のように簡単なものでなく、ナニかとても神秘的なものである必要がある人が文句を言っている気がします。
「深い関数により表現力が革命的に上がり」というのを見るとやっぱりbias減らすことしか考えてないんじゃないかという気がするのだけれども、どうなんでしょうか。
本文の内容に最も近い選択肢を選べという現代文の問題で、「深い関数を使った」という部分を省いた選択肢が正解とされているものが相当数あるんじゃないか
反復試行で近似計算するって意味では当を得てるんだし、この言い方で誤解する方が悪いと思うけどな。
そもそも最小二乗法って何だか知らないのでは。
「ディープラーニングは最小二乗法」 で物議
こう言うことだろうって、思ってたけどな。何を騒いでるんだと思ってたわ。
なんだかなぁ… //
平方根ぶんだけゆらぎがでても不思議はないとかそういうことを言えばいいわけ? /
「AIが自動的に猫の概念を獲得した(実態は教師なし表現学習)」とか「AIがAIを生み出した(パラメータチューニング,Auto ML)」みたいなクソみたいな煽りよりは安全側じゃなかろうか.→
“松尾氏は「深い関数」の意味やそれがもたらす可能性について、今後も研究や啓もう活動を続けていくと発信した。”深い関数 is 何(´・_・`) /
政治家や経営者には、AIやるためには数学や理科的知識が今まで以上に重要ってのがわかってもらえればいいんでない。プログラミング授業よりも。 /
日本人にAIの話は無理。根本的に知性が足りない。昭和の日本人がこの惨状を見たら卒倒する。なぜここまで退化してしまったのか、嘆かわしい /
やっと何が話題になってるのか理解した。そんなに悪い説明じゃないと思ったんだけど、厳しいな。僕も人にこういう説明しちゃいそうだけど、駄目かな??? /
「ディープラーニングは最小二乗法」は、まったく正しいんだが、なんで物議なの??
わはは。もうちょっと調べて記事に。
例え話は怖いっすよね
「損失関数を最小化する」というと,あらゆる機械学習があてはまる:
リアクションが早い
ワロタ(いやワロえない)
慶應大学経済学部では、今後、AIは最小二乗法とすると。謝ると死ぬ病がいつものように出るのかな、小林教授>
まず一般人に最小二乗法が伝わらないかもしれませんね。
そういや、これも慶応の教授かw 慶応の教授って(略 /
大変だなぁ、、、 /
毎週木曜日、NHK"人間ってなんだ?"を楽しんでいます。
「深い関数」はわからないだろうな。松尾豊氏が他のところで言っている「お化けのように大量のパラメータを持つ最小二乗法」の方がわかりやすいんじゃないかな。
数十年前自宅で同級生がニューラルネットの簡易プログラムを披露してくれたが、要は気に入る値に収束するためにパラメータを変えて繰り返す手法だと思ったよ
確かに、深いって表現つけるだけでだいぶ違うな
∑(E-E')^2を使うと全ては最小二乗法と表現されてしまうレベルでは...
Python勉強してるときに機械学習もやったけど、次元の適切値みたいなの難しい
深い学習が必要ない場合には、最小二乗法かな
ディープラーニングに関しては絶望的に解らない。
確かに痛い極論化である。
かつ、アレだよね簡素化して説明って限界大きい。。。知識差が有ればあるほど。
毎日触れてるけど一言では言い表せない。
こういうフォローがされるということはまだ救いがあるということだけど、本人読んでるだろうか。>
『 東大・松尾豊氏「深い関数の方が重要」』 重要なところが抜け落ち本質が全く理解されていない。
最小二乗法の三次元版じゃないんですか!?
松尾さんに同情。
「深い関数」がなにを意味しているのか理解できるのであれば、ディープラーニングを簡潔に表現する必要自体がなくなりそう。 〜
あー、全然理解できていなかった。「ディープラーニングは最小二乗法」レベルの理解しかできてない。
言い訳なんだけど、Pythonとかでちょろっとやると、最小二乗法だけで、「深い」の要素が出てこなかったの・・・。
以上

記事本文: 「ディープラーニングは最小二乗法」で物議 東大・松尾豊氏「深い関数の方が重要」 - ITmedia NEWS

関連記事