最近疑問に思うことがあります。
世間では、AIがどんどん賢くなって、人間を超えるのでは?
そういうことが言われています。
すこし考えてみました(*´ω`*)
なぜ、人間より賢いAIを作る必要があるか?
なぜ、そんなものを作ろうとするのか?
好奇心から?
それならばやめさせることが出来るかもしれないです。
クローン人間が倫理違反していて、作らないようになっているように。
それ以外の理由として、
恐らく、人間より賢いAIに、
社会問題を解決させるために開発してやろう!と
意気込んでいる科学者もいるかもしれません。
それならば、
社会問題は人間の手によって解決したいですよね!
量子コンピュータによって、爆発的な計算力を手にした場合、
分子計算などから、ゲノム、創薬、素材の研究が進むと思います。
さらに核融合発電によって、エネルギー問題が解決したとしたら。
この2つによって、社会問題のかなりの部分が解決できるのかもしれません。
(新たな問題が起きるかもしれませんが^^;)
特に高速計算機により、医学が急速に進むのではないでしょうか?
人体で起こる化学反応を、分子の運動なども含めて、
シミュレーションできるようになれば、
革新的な新しい薬も作れます。
(たぶん^^)
臨床試験の時間も短くなるかもしれません。
(コンピュータによる人体シミュレーションで薬の問題点が分かるので。
臨床がなくなることはないと思いますが、時間の短縮はできるでしょう)
脳の構造も解析されるかもしれません。
膨大なニューロンの動きをコンピュータ上に作り出して、
なぜ障害が起きているのか、
物質面からの解析が進むかも。
そうやってかなりの問題点が人間の手により
どんどん解決ができるようになると、
わざわざ人間を超えるAIを作る必要性があるのか?
そういう疑問が多くの人からでてくるかもしれない。
自分たちを超えるものなんて、基本的に気持ちのいいものではないです(¯―¯٥)
社会問題を自分たちで解決できるとなれば、
わざわざ嫌な(自分たち以上の)AIを作ることに反対するという世論が
増えるかもしれません。
そうなると世界中で開発が禁止される可能性もあります。
(AIが自己進化するものは禁止とか)
結局は、みなさんがどう思うか、ですね!
個人的には、道具として賢いコンピュータならいいですが、
自分たちより賢いコンピュータは嫌だなぁ〜\(^o^)/
AIの自己進化には反対〜(´;ω;`)