深層学習の原理を説明する新理論――ニューラルネットワークのエネルギー曲面上の滞留現象 | 東京大学

ツイッターのコメント(15)

東大今泉允聡准教授が、深層学習が大量のパラメータを持ちながらも過学習をしない理由として、ニューラルネットワークがエネルギー曲面上で"滞留"という現象を起こすことを数学的に記述することによって説明する理論を開発した
やっぱ凄い人たちは頑張っとるわ。
エネルギーのロスを最小にするのね?
>深層学習が大量のパラメータを持ちながらも過学習をしない理由は、近年多くの仮説が提起されつつも未だに十分には明らかにされていません

そうだったんだ…感強い
これは興味深い。
実用面が圧倒的に先行しているニューラルネットワークの、理論面での研究の深化は興味ありますよね。理解できるかどうかは別として(笑)

| 東京大学
「深層学習が大量のパラメータを持ちながらも過学習をしない理由は、近年多くの仮説が提起されつつも未だに十分には明らかにされていません」



やっぱ人類は宝くじを当てつづけてる気がしなくもない。
「深層学習が大自由度にも関わらず過学習しない原理は長年の未解明点であり、これを説明する理論を開発した。」
局所的に凸部ができるというのとどの程度違うのん? --
いんそうさんだー
興味深い→
”深層学習が過学習を起こさない原理を、ニューラルネットワークがエネルギー曲面上で滞留する数学的理論を開発して説明”
←これは面白そう
気になる。
以上
 
PR
PR