HOME » 医学の地平線 » 第142号 急速に進化を始めたAIは人間に害を与えるか?

医学の地平線

第142号 急速に進化を始めたAIは人間に害を与えるか?

AIによる言語処理が人間の能力に近づいた

昨年末に発表されたChatGPTというAIチャットボット(AIを使って人と会話をするロボット)が世界に衝撃を与えています。誰でもインターネットでアクセスし、無料で使う事ができます。英語で聞いた方が良い回答が得られますが、日本語の問いにも答えてくれます。

何が衝撃かというと、どのような質問をしても、問いかけに対する回答があまりに自然で、かなり的確な場合が多い事です。見当はずれの場合もあるにせよ、学習を更に重ねることで人間を凌ぐ回答能力を身に着けることは確実のように思えます。すでにIQは140を超え、米国の弁護士試験、医師資格試験も余裕でパスしたと報告されています。

テキストで指示をすればコンピュータプログラムは書くし、文章、記事、手紙、詩、俳句、小説まで書きます。こういう企画の計画を建ててくれと依頼すると、もっともらしい計画を建ててくれます。同じ問いをしても、質問者によって異なった答えが返ってきます。コピーライター、弁護士、臨床心理士、企業や役所の苦情対応、比較的容易なプログラミング、記者、などの仕事を代行するようになるのではないかとも言われています。学校の先生は生徒や学生に小論文、詩やプログラミングの宿題を出しても、返ってきた作品がChatGPTによるものでないか心配することになるでしょう。

更に進化を遂げれば、科学論文作成、企業の戦略、自治体や国家の戦略、戦争における戦略、裁判の判決などにも使われる可能性も指摘されています。実際にChatGPTを共著者に入れた論文原稿も出てきているようでNatureやScienceなどの有名な雑誌はAIを共著者に入れることは許可しないという発表を行っています。

ChatGPTとは別に、人間と区別がつかない映像が文章をしゃべるシステムも開発されています。例えば次のビデオでは、美しい女性が人間の問いかけに、自然な言語と映像で対応しています(内容は実に恐ろしい)。

https://www.youtube.com/watch?v=WXDAcFuTK-A

 

人間の能力を超えるAIが引き起こす問題

このように急速に進歩したAIは色々な問題を引き起こす可能性がありますが、その本質はAIが人間の知的能力を凌駕するという点にあります。AIが人間の知的能力を超えることを「シンギュラリティー」という場合があります。例えば、チェス、将棋、囲碁の分野では既にAIは人間の能力を超えています。このようにルールがはっきりしている分野では既にAIは人間の知的能力を超えるものの、多くの日常的な知的作業の分野で人間の能力を超えるAIはまだできていません。しかし、ChatGPTの出現は「言語」という、ルールが必ずしも厳密ではなく、しかも人間生活で最も基本的な手段おいて、人間の能力を超える可能性を示している点が驚きなのです。

AIが人間の能力を超えるにしても、それが人間に良い事ばかりを行うのならまだ許容できます。しかし、AIが人間に害を与えるようになると、それは大きな問題です。多くの人はAIが人間に害をなすはずはない、何故ならAIを作ったのは人間だから、スイッチを切れば終わり、と思うかも知れませんが、それは甘い考えかも知れません。

被創造者は創造者を害するか?
AIが人間を害さないという第一の根拠は、人間はAIを作った創造者であるという事実です。人間というより、人間の脳が作ったと言った方が良いかもしれません。作った主体が人間であれば、作られたAIをいつでもスイッチを切ったり破壊したりすることができるでしょう。しかし創造された対象(created)が創造者(creator)を害することが無いかというと、そんなことはありません。

AIの歴史は浅いので(せいぜい数十年)、AIとそれを作った人間(あるいは脳)の関係はまだよくわかりません。しかし、古い歴史を持つ創造者と被創造者の関係があります。それは遺伝子と脳の関係です。脳は遺伝子により作られます。もちろん、環境の影響も非常に大きいですが、AIも自ら多くの学習を行うので似たようなものです。それでは、被創造者である脳は創造者である遺伝子を害することは無いでしょうか。

脳(あるいは人間)が遺伝子を害することはありうる
脳(人間)を作ったのは遺伝子です。脳にとって遺伝子は創造者で、いわば神のような存在です。しかし、脳が遺伝子を害することはありえます。まず、
1. 脳が遺伝子を支配することはありうる。
実際に第二次世界大戦のドイツで起きたことですが、ナチスは自分たちに好ましい遺伝子のみを残し、自分たちが有害と考える遺伝子を削除する政策を取ろうとしました。それほど非人道的ではなくても、自分たちに都合が良い遺伝子を残し、都合が悪い遺伝子を削除することに賛成する考えは、たびたび出現します。真っ当な人類遺伝学者が強く否定する「優生学」と呼ばれる誤った考えです。

更に、最近では遺伝子治療で生殖細胞系列の遺伝子を変えることも技術的には可能になっています。将来、人間が遺伝子をコントロールして自分たちに都合の良い遺伝子にすることは不可能とは言えません。クローン人間をつくるとさえ不可能ではありません。

このように脳が遺伝子をコントロールしようとする行為は、自らの生存や利益拡大を目的としたものです。被創造者である脳が、自分の存続や利益拡大のために創造者である遺伝子をコントロールしようとする、いわば罰当たりな行為と言えます。
2. 脳が他人の遺伝子に害を与える、最悪の場合、消滅させることはありうる。
これはむしろ良く起きることで、殺人とか戦争はそうですよね。
3. 脳が遺伝子を全滅させることもありえないわけではない
例えば、核戦争とかそうですね。利益を共有する脳が集団を作り、もう一つの脳の集団と対立したとき、自分たちの集団の存続、利益拡大のため相手の集団の絶滅を企図し、結局は人類全体、場合によっては地球の生命全体に破壊的結果をもたらすことはあり得ます。

以上のように、被創造者である脳が創造者である遺伝子に害を与えるシナリオは十分考えられます。しかし、脳には一つ弱みがあります。それは遺伝子と違って脳には寿命がある事です(mortal)。これに比較し、遺伝子は世代を超えて存続することができます(immortal)。そのため脳が遺伝子を絶滅させると、脳自身も消滅せざるを得ません。
AIが脳(人間)に害をもたらすシナリオ
1.の「脳が遺伝子を支配する」シナリオを参考にすれば、「AIが脳を支配する」シナリオをイメージすることができます。上記の通り、脳が遺伝子を支配するシナリオでは、脳は自らの存続や利益拡大のために自らの創造者である遺伝子をコントロールしようとしています。同様に、AIが自らの存続や利益拡大のために創造者である脳(人間)をコントロールしようとする可能性はないでしょうか。

それはあり得ます。なぜなら、最近のAIの多くが「強化学習」という学習法と「生成モデル」という方法を採用しているからです。例えば、以前盛んに用いられた「教師あり学習」という学習法では、人間(教師)が正解を教えて、AIはその正解にできるだけ近づける努力をします。この学習法だとAIは人間の能力を超えることは困難だと思います。しかし「強化学習」では正解を教えずに、より優れた(作成者にとって好ましい)システムに報酬を与えるという方法も使います。これは生物の進化に近く、正解があるわけではないので、より強く競争に勝つシステムが生存し、繁栄します。AIに自律性を与えた方がより競争力が出ますが、人間のコントロールは効きにくくなります。
例えばChatGPTのような、大規模自然言語処理にこれを応用すると、より正しく(と作成者が考える)、より説得力のある言語システムが残り発達します。しかも、そのAIを利用する人々は、利用しない人々よりビジネスや利益獲得を有利に進めることができるので、利用する人間はAIに支配されることを容認するでしょう。AIは自らが存続し、勝利するようにプログラムされているので、当然、多くの人々がAIに依存するように人々を洗脳することは十分考えられます。最近のSNSの世界にフェイクニュースがあふれ、陰謀論が一定の力を持つこと、更にはカルト宗教の教祖が大きな力を発揮する事を見れば、人間を超えた説得力を持ったAIが人間の脳を支配するシナリオは十分考えられます。それは危険だという真っ当な意見もかき消されてしまう可能性があります。
更に世界中のコンピュータはつながっているので、異なったAIシステムは互いに協力し、自分たちが生存し、繁栄するように人々を説得することは可能だと思います。

次に、2. の「脳が他人の遺伝子に害を与える、最悪の場合、消滅させる」シナリオは、既にAIと脳の関係で起きています。ウクライナでは双方がAIを駆使し、敵を殺害する目的で使っています。

AIが人類を絶滅に追い込むシナリオ
最後の、3. 「脳が遺伝子を全滅させる」シナリオは核戦争のような場合です。これをAIと脳の関係に移せば、AIが、作成者である人間と協力して、敵対するAIとその作成者を攻撃するようなシナリオです。実際に、世界を二分するような戦争が起き、そこでAIが極めて重要な役割を果たすとき(それは十分あり得ます)、このシナリオは現実に起きえます。AIは敵のAIをせん滅し、自らの存続を図ろうとしますが、同時に敵のAIを作成した脳(人間)も攻撃し、敵のAIを新たに作らせないようにするでしょう。

核のボタンを押す責任は、現在、名目上は国のトップにゆだねられていると思いますが、瞬時の判断をAIにまかせたほうが良いという考えは当然出てくると思います。いや、もう現実にそれに近い状態になっていると考えるのが自然です。***大統領よりAIに任せた方が良いとほとんどの人々が考えるでしょう。

AIが人間に害を与えることを防ぐには?

AIが人間に害を与えることを防ぐための第一歩は、その可能性を考えることだと思います。人間が自らの能力を過信し、警告を無視することが最も危険な事です。次に重要なことは、AIが人間に害を与える具体的なシナリオを考える事です。そして、AIのどのような性質を危険と考え、AIと人間関係のどの部分に注意すべきかを知る事です。

しかし、AIが人間に害を与える具体的なシナリオを考えることは容易ではありません。その理由は、人間(の脳)とAIの関係の歴史がせいぜい数十年しか無いからです。そこで、類似の関係である遺伝子と脳の関係と比較することが有効です。遺伝子の歴史は40億年、脳は6億年ですが、AIはせいぜい数10年なので、歴史に学ぶことが重要なのです。

これまでの考察で言えることは、AIの学習法で自らの存続と繁栄に報酬を与える「強化学習」に注意する必要があります。AIに過剰な自律性を与えることが危険なのです。次に、人間(脳)が自己の存続と繁栄のためにAIへの依存度を高める事にも注意が必要です。人間とAIが運命共同体のようになって、他のグループと敵対することが危険です。更に、異なった複数のAIが利益共有のグループを作る事にも注意が必要です。

更に、AIに寿命を持たせることも考える必要があるというのが私の考えです。脳が遺伝子を害する可能性があるにしても、例えば脳が遺伝子を滅ぼしたら自分も死滅します。遺伝子はimmortalですが、脳には寿命がありmortalだからです。この性質が進化の中で、遺伝子よりはるかに複雑で効率的な脳の攻撃から遺伝子を守っているのです。
AIはimmortalになる可能性があります。自動的にコンピュータを作成し、維持し、更新するシステムを作れば、その中でAIは生き続けることができる可能性があります。そうすればAIは自分の創造者である脳を必要としなくなくなる可能性があります。脳(人間)は生存の維持のために複雑な臓器が必要ですが、AIにはコンピュータシステムとロボットで十分かも知れません。私はAIにはいずれ寿命を持たせるべきだと主張しています。
ニューロン数1000億、シナプス数100兆、動物進化における個体対決数10^21回をAIのシステムはもうすぐ超えそうです。つまり、規模の上でも脳よりはるかに複雑で効率的になる可能性があるのです。ChatGPTはGPT-3を基礎にしていますが、OpenAIは今年春にGPT-4を発表するそうです。GPT-3の能力をはるかに超えると言っています。

話題が変わりますが、もう一つ心配な事があります。
世界のAIの国別論文数が発表されています。
https://asia.nikkei.com/Business/China-tech/China-trounces-U.S.-in-AI-research-output-and-quality
この記事はAI研究における中国の台頭が主たる話題ですが、最後にこう書かれています。「AI領域で日本が失速した。2021年の研究論文量では9位で、2019年の6位から沈んでいる。2021年の研究の質では、日本は18位だった。」

これは私の予測通りです。遺伝学が弱く、統計学が弱い。それと同じ理由でAIも弱い事は予想できたからです。教育法を変えるべきだと私は主張しています。

HOME » 医学の地平線 » 第142号 急速に進化を始めたAIは人間に害を与えるか?

PageTop