人工知能

先ごろホーキング博士による「ある指摘」が話題を呼んでいいますが、中身を見てみるとまるで「ターミネーター」のような世界がやってくるような警告に驚いてしまいました。

ホーキング博士と言えばALSと呼ばれる難病を患いながら科学者として精力的に活動している有名な人で、テレビでもよく見かけますよね。

そのホーキング博士が主張するのですからこれは見過ごせないという事態になっているみたいです。

何と将来は人類が地球以外の惑星に移住を考えるときが来るかもしれないと言っているのです。

そう言えば「宇宙旅行が20年後に実現?」でも書いてあるように、火星への移住を目指す計画があるのはこうした理由があるのかもしれません。

最初は突拍子もない警告だと思っていましたが、最近の科学技術を目の当たりにしまんざら大げさでもないような気がしてきたんですよ~。

スポンサーリンク

目次表示位置

人工知能が自分で問題を解決できるのが問題

人型ロボット

ホーキング博士は、人工知能が人の手を借りずに自ら諸問題を解決出来ること自体が人類にとって「真のリスク」になると主張しているのです。

私はこの主張を目にしてSF映画「ターミネーター」に出てくるロボットを思い浮かべました。

映画「ターミネーター」は、アーノルドシュワルツネッガーが主演していますが、未来から将来コンピューターの敵になりうる人間を全て抹殺しようとするロボットから守るために現代にやってきたロボットという設定です。

「未来からやってきた」という部分は置いといて、「コンピューターの敵になりうる人間を全て抹殺しようとするロボット」という部分がまさにホーキング博士が指摘している部分ではないかと思うんです。

そう言えば昨今のロボット技術は目を見張るものがありますからね。

人の顔を認識して誰であるかを記憶し、さらに自ら考えて話しかけたり、相手の言うことを理解して適切に言い返すなど、まるでどこかで遠隔操作しているかのように反応できるんですよね。

10年前までは考えられなかったことで、いかに人工知能工学が物凄い勢いで発達しているかが判ります。

加えてDNA操作技術も物凄い勢いで発達していますよね。

それこそ人工知能とDNA技術を組み合わせれば、ターミネーターのような人間型ロボットが出来上がるかもしれませんよ。

 

スポンサーリンク

 

考えられるシナリオ

弾丸

人工知能ってそんなに怖いものなの?って思っている方も多いと思います。しかしいろんなことを考えているとひょっとしたら大変なことになるかもしれないと感じてしまうんです。

たとえば現在プログラムは人間の手によって入力されていますよね。これって非常に面倒なことはよく知られています。

人間って基本的に楽して効率的に行動する動物ですから面倒なことは避けようとします。そこで考えられるのが「人工知能によるプログラミング」です。

今はまだ出来ないようですが、技術の進歩によっていずれは可能になるはずです。あるいは知らないうちに人工知能が勝手にプログラミングする時が来るかもしれません。

人工知能は学習能力のあるコンピューターチップですから人間の指示が無くても自分で考えて行動します。

もし、プログラミングを人工知能に任せてたときに人工知能が自ら学ぶようになったら勝手にプログラムを作ってしまうかもしれません。

やがて次々に人工知能はどんどん自ら向上させて人間の手に負えない存在になり・・・・

いかがですか?

まさしく「ターミネーター」に出てくる「スカイネット」みたいでしょ。

 

スポンサーリンク

 

人工知能が核ボタンを押す?

核ボタン

SF映画「ターミネーター3」では最後の段階でロボット「スカイネット」が核ミサイルを発射させ、世界中に核攻撃をさせて終了していますよね。

その後は人類が大打撃を受けて、ロボットが世界を支配するようになるとの設定になっています。

SF映画の世界とはいえ、もし現実にこのような事態になれば人類は絶滅しかねない事態に追い込まれますから、今のうちに核だけでも廃絶しておきたいですよね。

それに今、核はいわば脅し道具になっていて、実際に使うことは自ら核攻撃を受けることを覚悟で使用することになるので使うことは出来ないはずです。

にもかかわらず、未だに核を廃絶できていませんよね。人間って本当に愚かだと思いませんか。

人工知能が自我に目覚めないようなプログラムはできないのか?

ホーキング博士が警告を受けて学会では賛否両論が沸き起こっているようですが、いつの時代でも楽観的な人間は存在するわけで、ホーキング博士の警告などお構いなしに研究を進めて行くんでしょうね。

しかし過去に核分裂で膨大な熱を発することを発見し、将来のエネルギーに利用できると期待されたのに、今では「原爆」と言う人殺しの道具になってしまいました。

このような事態にならないように今からでも人工知能をどこかで制限できるように“歯止めプログラム”を組み込んでおく必要があります。

しかしこれでは人工知能と言えるのかどうか・・・・

難しいですね。