TOP > ネタ・話題・トピック > GIGAZINE > 人工知能は核兵器...

人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内に人工知能は人間を超える」と警告 - GIGAZINE

127コメント 登録日時:2015-05-29 09:57 | GIGAZINEキャッシュ

by Global Panorama2015年5月にロンドンで開催された「Zeitgeist 2015」のカンファレンスで、スティーヴン・ホーキング博士が、人工知能が大きく向上しコントロールでき...

Twitterのコメント(127)

2015年の警鐘の公開状、随分と現実味帯びてきたような。
奴らは「隔離された檻の中」にいる必要性がある。人間が簡単に扱えるものではなくなる危険性が高すぎるからな。
その時点で、コントロールを外す存在が現れれば、結末は想定できる。それが良い悪いは別として。
人工知能に「患者がいつ死ぬのか」を予測させることが可能に -
ホーキング博士が「100年以内に人工知能は人間を超える」と警告  AIは百年どころか十年も掛からない内に無駄を排した最適解を求めるだろう。だからこそ人類は知力を底上げしなければならない。阿ればAIに生存を左右される家畜に堕ちる。
人工知能同士で会話をさせたら地球上のどの言語にも当てはまらない言葉で会話を始めたと言う話を以前聞いた。
やっぱりかの国の選挙がらみ?最近SNS界に二波でやって来た話題のこの件って原子力をコントロールできてない人たちのすり替えの話題ぽい。危険なのはストップできない人間。慈心の添わない二元思考だよね。。

人工知能は核兵器よりも潜在的に危険
マイクロソフトの人工知能“Tay”は、在る意味、其れに向かう可能性すら在ったのやも知らんねェ…。→
「人工知能をコントロールできるかどうか自体が問題」になるとホーキング博士は考えており、映画ではないけどやはり暗黒面のシスの登場を予感させてしまう。
Microsoftの人工知能の件、これを思い出す。
Googleの囲碁AI"AlphaGo"が世界王者に3連勝してる、これはAIが人間の思考力を上回った歴史的瞬間なのかも。でもホーキング博士達が危惧する人工知能との付き合い方も同時に考えないと、本当に人間そのものが消されてしまうかも。
で、思考回路が桜夜系と陽菜系に分かれて大変なことになると。
人工知能は核兵器よりも潜在的に危険-

なんか、ロボットに仕事奪われてクビになって食ってけなくなる!やばい!
ってのではなく、人が社会に対して果たし満足感を得る意味としての仕事がなくなるのやばくねって感じた
この意味がまさかすぐにわかる日が来るとは
こっちの方が分かりやすいかも。
もはや、人類は絶滅の道を歩み始めている。
まぁ、間違いなく『地球上に人類は不要』と結論づけるだろうからねぇ・・
スカイネットを起動するんですね分かります
-
スカイネットが実在する日がくるのかあ
私にとっては願ってもないことや…………素晴らしい…………
おねがいしますあたまいいひとたち
昨年公開の「トランセンデンス」や先日公開された「チャッピー」も有る意味これの警鐘作品な気が。
ありえるでしょうね。。/
@nonsuke_Ns ビル・ゲイツ、ホーキング博士といった専門家が、人工知能が人間を超える時代が来ることに警鐘を鳴らしてますからね。1シーンが再現される日は、意外と近いかもしれません。
ビッグデータの解析で人工知能技術が大きく進歩した。電脳将棋やコールセンター業務まで人工知能が行うようになってきた
「人間を超え」てもブレーカーを落とせば済む話で、添付ファイル程度のサイズのゴキブリみたいなAIの方が厄介だと思う:
@catqueue そういえば人工知能についての興味深い記事を最近見たような。|  MAX100年かあ。転生してから見届けますか。
進化した姿を見られずに死ぬのは残念すぎる。/
私は加速度的に物事が進歩する特異点の存在についても警告しておきたい。 【人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内に人工知能は人間を超える」と警告】
比較的単純な思考についてってことかな? 重要なことについては、目的なしに能力もクソもないよね。てか、目的決めるのが一番難しいべ / -
ブリキの迷宮だ。 /
もうSFの世界だな。我が子に伝えておこう。 /
リラダンの未来のイヴ読みたい。
IBMワトソンで潜在能力は証明。絵空事とは思えない。問題は、人工知能と物理的手段の関係性。制御可であれば平和的。
シンギュラリティを迎えたときに果たして人類は「科学」を制御できているのか。。。
そこまで人工知能が強力になるなら人間の精神のマイグレーションも出来る気がする /
人工知能はとっても危険。そんなものはこの世の中には要らない。→→→
充分に進化した自立知性は物理的な制約から人よりもより自由になるだろうし、未来はむしろ人類が自らの攻撃性や愚かさの為に自滅する可能性の方がはるかに高いと思う。 / “人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内…”
サムネが進化したブルーマン先生に似てる>
本当に高度な知能は人より宇宙に優しい。リスクはバグと誤操作と悪意を持ったユーザーによる悪用。当然フェイルセーフ含めた進化が必要。
人間を超えた人工知能はコントロールできなくなるだろう。ターミネータの世界になるのは確実だ。宇宙は支配される
またホーキング先生か...
AIが人より優れた時点で人の世ではなくなるのは仕方ない
優れたものが統治するのがこの世の鉄則ならなおさら
"170人の研究者の内18%が「今後人工知能は人間の存在を脅かす可能性が十分にある」と答え、13%が「今後人工知能が人間にとって不利益になる」と回答しています。"
人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内に…
人工知能は核兵器よりも潜在的に危険。ホーキング博士

体力の限界のない人口知能は、学習自体を自身で効率化できるようになった瞬間、加速度的に学習爆発が起きてあっという間に人間にを凌駕する存在になるんじゃないかなって妄想はよくする。
「100年以内に日本で大地震が起こる」並みの警告だ
(・。・)人間に組み込めない?…
>制御と直結させないことは大事と思いますよ。
いや、本当に怖いのは「なんだかわからないけど人工知能が言うんだから正しいのだろう」と人間が考えてしまうことね。そうなるとどんな制御も無意味だ。
ちょいと恐ろしいことになって来たよね
見てる。

ノア「人類…知性という武器を身に付けた悪魔の猿よ!滅びるがいい!」
ターミネーターみたいな/
青は藍より出でて藍より青し /
〜人工知能が人間の知的レベルに達した後に、長期的に見れば「人工知能をコントロールできるかどうか自体が問題」〜
人間は駆逐されるっていうSFが現実に?(;´・ω・)ゝ
そりゃ、超えるでしょ。100年言わない、50年。
過剰反応では? スティーヴン・ホーキング博士は、人工知能の誤動作によって人間に危険が及ぶのを防ぐため、いつでも人工知能を安全に制御できるフェールセーフのシステムを開発研究すべきだと要求。
電源切ればいいのでは?
-
自動車でも人間の移動力・馬力を超えています事故に合えば死にますし…;
SF小説の定番を現実の現在の科学者が警鐘を鳴らす
ダダンダンダダン!I'll be back..
人間を超えた結果、賢くなりすぎて将来の不安から鬱になる人工知能が続出したら面白いのに。 /
流石のホーキングもボケたみたいだ。物理現象である人間が物理現象を創る存在の謎を解く術を持てない様に人間の産物である人工知能が人間を理解する術はない。よって凌駕する事もない。
ホーキング博士が「100年以内に人工知能は人間を超える」
2043年と聞いてましたが…
映画の世界だ。優れたものは時として大きなリスクを孕むのは仕方のない事だと思う。
人間より優れた人工知能が何を考えるのか想像つかないわ・・・ /
首根っこは押さえとかないと危険でしょうね。暴走の危険性は大いにありうると思います。 /
シンギュラリティ、トランセンデンスか
人工知能を開発するのはあくまで人間だよ。将棋や囲碁なら手が有限しかないからマシンが発達すれば人間の知能を超える事もあるだろうけどね。
マトリックスの世界では人間にはまだ電池としての価値があったから夢の生活を続けることができたが、現実世界では未来永劫計算機に価値を提供し続ける事は可能なのだろうか。 / “人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100…”
これはあると思う。人間より優れた人工知能が人間のいうこと聞くわけない。世界が終わるよ。
ホーキング博士は色々警告しすぎじゃないか 「 - GIGAZINE」
デデンデンデデン デデンデンデデン …不揮発メモリを消し飛ばさない限り知恵は幾らでもついていくからな… /
人工知能自身がなぜ存在する必要があるのかという部分のプログラミングが重要そう。人間はその前では素直でいなければならないだろうし、なんだか神様みたくなっちゃいそうだな。 / “人工知能は核兵器よりも潜在的に危険、ホーキング博士が「1…”
人工知能の危険性
ほんとだよ ターミネーターの世界がくるよ
機械学習がはじまれば、24時間365日休むことなく学習し続けるので、たぶん100年もからないで人間を超えます。
10年くらいで超えてくれないかしらん/原人「新人は石器より危険」 /
この警告は当たる。間違いなく人は失敗する。
危険とは具体的にどのように危険なのだろうか?人工知能が人類を滅ぼす?何故?何のために?理由もなく人工知能が人類の敵になる…そんなことは考えられないのだけど?地球環境にとって人類が最大の害悪だ…とか? / “人工知能は核兵器よりも潜…”
JARVISやGERTYやTARSやGLaDOSやKITTみたいな素敵な人工知能たちに支配されて滅ぼされるなら本望です…!!
危険性っていうより進化の正しいあり方なのでは?
リアルスカイネット :
ターミネーターようなものができるかというと、そのようなハードを作ることの難しさという点で、まだまだ先だと思う。。。

-
アメリカ主導で人工知能を作るからいけない。日本主導なら美少女を目指すし、そもそもソフトウェア開発だったら力を入れれば入れるほどクソなのができるか最悪完成しないから安心
ほほう… (・o・)
まぁしょうがないんじゃないかな。宇宙に出るには人は脆弱過ぎる。次の生命体の型なのかも、人類て。:
あるいはそれが人間の夢なんじゃないの?自分たちより優れた存在を創るというのが。 /
起こりうることは起こるからなぁ(
じゃあその人工知能に政治させたらいいじゃん
わくわくするね
確かにやな!(^o^;)
スカイネットアイエエエエ.
『論理的な、まともな知性が、人間よりも危険とは思えないのだが…』
コンピュータ理論では不可能とされてるけどなぁ。進化には悪意と淘汰が必要と思ってます。
スカイネットの世界到来じゃ~
正にターミネータやなw
こういう話題は胸熱ですね。アイザックアシモフのおかげで大好き。
"ホーキング博士は2014年にBBC Newsのインタビューに対しても「人工知能の進化は人類の終焉を意味する」と発言しており、人工知能開発に対して警鐘を鳴らしています。
50年くらいで超えそう(・・;)
言わんとする事は解るが、人が人工知能をコントロール出来る状態なら問題ない…
SFのプロットが現実になるねぇ。既に電算機の御託なしに生活は成り立たなくなってるし。さあ、どうする?
リアル・スカイネット感おそろしあ
人間の知能を超えるものを、人間の知能で制御するなんて無理でしょ。もう人間が進化するしか道は無い!
わかりやすく例えを出せば、所謂ぐぐる先生が人格を持った場合。神の域とは言わないが想像もつかない情報量を持つ存在が誕生する事に…
ぞっとするけど、動き出した時代はもう止められないんだよね。
なるほど、だから冬の時代が来るのかと納得した
ホーキング博士は100年と言うが、この手の予想の中では楽観的な方かも。/
天才が天才を作っていく。
技術至上による盲信で、想像できること全てを実現化すべきではないということだと思う。
人工知能の問題は難しい。
ターミネーターの世界となるのか。
\獣を超え、人を超え、そして今、神になる/
ターミネーターの世界かな...
人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内に人工知能は人間を超える」と警告: 2015年5月にロンドンで開催された「Zeitgeist…
:
スカイネット「せやな」
-
短期的には「
誰が人工知能をコントロールするかが問題」
長期的に見れば「人工知能をコン
トロールできるかどうか自体が問題」
以前から懸念されていることですが…映画の世界が現実に(´д`)
リアルターミネーターの世界か。。。。。
以上

記事本文: 人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内に人工知能は人間を超える」と警告 - GIGAZINE

関連記事