HOME » 医学の地平線 » 第144号 人工知能(AI)は人類に危機をもたらすか?:情報の三世代からの考察

医学の地平線

第144号 人工知能(AI)は人類に危機をもたらすか?:情報の三世代からの考察

AIによる危機論と反論
ChatGPTなど生成系AIの出現を契機に「AIが人類に危機をもたらすか」についての議論が盛んになってきています。深層学習の父とも言われるヒントンは危機論者の代表で、公平な立場からAIの危険性を訴えたいという理由で、グーグルを退社しました。また、イーロン・マスクやスティーブ・ウォズニアックを始めとした数百人の著名な技術者、起業家、研究者のグループは、GPT-4以降のAIシステムの開発をただちに中止するよう呼びかけました。これに対して、メタの主任 AI 研究員を務めるヤン・ルカン氏など、危機論には根拠が無いと、これに反論する専門家も多くいます。果たしてAIは人類に危機をもたらしうるのでしょうか。

確かにこの問題については、どちらの意見にも根拠となるデータに乏しい事は確かです。今現在、AIが人類に危機をもたらしていれば、それは大変なことで、AIは直ちに中止という結論になりますが、そんな証拠はありません。しかし、現在、その証拠が無いからと言って将来にわたって危機が来ないという意見にも根拠はありません。近い未来にそのような状態が来ないと誰も確証をもって言えないからです。
なお、雇用問題、偽情報やバイアスなどの、AIのもたらす短期的問題を軽視しているわけではありませんが、今回は長期的問題に焦点をあてて考えてみます。
歴史から考えるAIの位置づけ
このように現在の情報だけから未来を予測する事はそもそも不可能です。過去から現在までに至る歴史を知って初めて、将来の予測が可能となるのです。人類が滅ぶか否か、などという大問題については、それこそ人類の歴史どころか、生物の歴史も含め、鳥瞰的な立場から考察する必要があります。

まず、AIは過去に出現した新しい技術に比較し、どこが特別なのでしょうか。AIは、そもそも何かと考えると、「情報処理装置」です。何らかのデータを入力すると、内部の装置で処理し、情報を出力します。計算機の歴史は17世紀のパスカルにまでさかのぼるようですが、AIという言葉は1960年代頃より使われてきたようです。そこで、AIの歴史は約60年ということになります(計算機械の歴史は300-400年)。
しかし、歴史的にはその前にも情報処理装置は存在しました。「脳」です。脳も感覚器(目、耳など)からデータを入力し、それを処理した結果を筋肉に出力する事で構造はAIと似ています。脳の歴史は動物の歴史に近く、約6-7億年と考えられます。動物の特徴は「動く」事ですが、やみくもに動いても何の効果もありません。効果的な動きを実現するためには外部の状況を把握し(感覚器)、そのデータを処理し(脳)、望ましい方向に動く(筋肉)ことが必要です。
そして重要な事は、AIは脳によって作られたという事実です。つまり、情報処理装置としてのAIと脳には明確な因果関係があって、脳がAIを作ったのです。

しかし、脳が情報処理装置として最上階にあるかというと、そんなことはありません。脳は「遺伝子」によって作られたのです。遺伝子が地球上で最初に現れたのは約40億年前と考えられています。生命が誕生したときです。そして、遺伝子もAIと脳と同様に、入力→情報処理→出力、という同じ構造を持った典型的な情報処理装置です。遺伝子システムの場合、入力は環境、情報処理は遺伝子、出力は表現型、です。

三世代の情報処理装置
このように情報処理装置は三世代(遺伝子、脳、AI)の構造を持ち、下の世代は、一つ上の世代により作られた、という因果構造を持っています。出現の時期は、遺伝子が約40億年前、脳が約6-7億年前、AIが約60年前という事になります。この世のすべての情報は、この三世代のどれかに属します。確かに文字の書かれた紙や粘土板には情報が含まれていますが、これらは基本的に脳という情報処理装置の媒体にすぎません。RNAやたんぱく質にも確かに情報が含まれていますが、これらは遺伝子に含まれる情報の媒体です。
このように遺伝子、脳という既存の二世代の情報処理装置に加え、三世代目の情報処理装置が出現したという点では、AIは他の技術と比較しても格段に大きな存在であると言えます。この三世代を比較すると、下の世代の方が情報処理機能としては高性能になる傾向があります。脳は明らかに遺伝子より高機能で、しかも進化によってますますその性能は向上しています。AIは今のところ脳より高機能とは言えないかもしれませんが、いずれそうなるかも知れないと恐れられているのです。最近のAIの学習方法である生成モデルと強化学習は、生物の進化の基本的要素である変異と選択に類似しています。脳は生物のこの性質により高性能化してきたのです。AIにこのような自律性を持たせることには危険を伴いますが、自律性を獲得したAIほど高性能になる傾向があるため、人間はそれをAIに望むでしょう。このように、AIは今後、高性能化に向けて、自律的に進化を続ける可能性があります。
情報の三世代からのAI脅威論の考察
さて、このような情報の三世代の視野から見てAIは脳の脅威となりうるでしょうか。それが今、議論の的となっているわけです。AIは脳により作られたので、自分を作った脳にAIが危害を加えるわけはない。AIは脳の支配下にあるので、スイッチを切ればAIの活動は終わる。確かにそのような考えも一面の真理を含んでいます。
そこで、AIと脳の関係を考える上で、脳と遺伝子の関係を参考にしましょう。AIが脳に危害を加えるかを予想するために、脳が遺伝子に危害を加えるかを参考にするのです。つまり情報の三世代の構造から「情報の下の世代は上の世代に危害を加えるか」という問題を考えてみましょう。ここに3つのシナリオを提示します。

1つめのシナリオとして、ジャームライン遺伝子治療という手法をご存じでしょうか。遺伝子治療は1990年代初めから臨床応用されていますが、現在、行われている遺伝子治療はすべて「体細胞遺伝子治療」です。ジャームライン遺伝子治療は、次の世代に遺伝子変化の情報が伝わる遺伝子治療で、体細胞遺伝子治療は伝わらない遺伝子治療です。ジャームライン遺伝子治療は禁止されていますが、中国でこれを行って罪に問われた研究者がいます。遺伝子、脳、AIという情報三世代を考えるとき、ここでいう遺伝子とは実は正確にはジャームライン遺伝子の事です。体細胞遺伝子はジャームライン遺伝子の情報を持つ媒体にすぎません。従って、体細胞遺伝子を変える事は許されるがジャームライン遺伝子を変える事は許されないのです。しかし脳には、ジャームライン遺伝子治療のように、しばしば自分を作ったジャームライン遺伝子を、望む方向に変えたいという誘惑が出現します。つまり、第二世代の脳は第一世代の遺伝子を変えようとすることが実際にあったし、これからもあると考えるのが自然です。

第2のシナリオとして、優生学という科学分野をご存じでしょうか。19世紀の終わりから20世紀の第二次世界大戦の頃まで世界の科学界を支配した考えです。人間の優秀な遺伝子を残し、劣った遺伝子は排除すべきという考えです。その行きついた先がヒトラーによる障害者差別、人種差別で、現在では誤った説であるという考えが支配的です。優劣は相対的なもので、環境によって大きく変化しうるからです。優生学を主張していた人々は、勝手に自分たちの遺伝子が他人より優れていると独断で解釈していたにすぎません。その証拠に、最近のヒトゲノム研究から人類の遺伝子が驚くほど多様性に富むことがわかっています。独断で優秀と解釈された遺伝子のみを残す行為がゲノム多様性を失わせ、それこそ人類の絶滅をもたらす事に多くの研究者が気付いたのです。この優生学は「脳が、自分を作ったジャームライン遺伝子を選別する」行為です。つまり、第二世代の脳が第一世代の遺伝子を選別する事は実際にありました。

第3のシナリオとして、人類の最も現実的な危機である核戦争を考えましょう。今や、ヒトラーのように自分の属する集団だけ地球に残る事を望む人々はいないでしょうが、自分たちが核攻撃を受ける恐怖から、お互いに相手を絶滅させる危険が無いとは言えません。これは、「脳の集団が、敵の脳の集団を遺伝子もろとも破壊する」行為です。

以上3つの、脳による遺伝子への脅威のシナリオは、AIと脳との関係に置き換えると次のようになります。つまり、
1. AIが脳を変えるシナリオ
2. AIが脳を選別するシナリオ
3. AIの集団が敵のAIの集団を、脳もろとも破壊するシナリオ
が具体的な脅威のシナリオです。この3つのシナリオを防ぐ必要があります。
しかし、具体的にどのような制限を設定するかについて議論する必要があります。
1について、AIが作成した文章を見て影響を受けている人々は、ある意味では既に、AIによる脳の変化の反映であるとも言えます。このような行為まで禁止する事は実際には困難だと思いますが、AIが物理的に脳を変える事は許されないでしょう。どの程度まで容認するか、議論を進めるべきです。
2について、最近では入社試験の判定にAIを用いることもあると聞きます。教育機関への入学試験でもこのような事が行われる可能性があります。これは、既にAIが脳を選別していると言えないこともありません。これを進めると、AIが自分たちに都合の良いように脳を選別し始める事もありえないわけではありません。どの程度まで容認するか、議論を進めるべきです。
3の核兵器使用におけるAIの利用は最も差し迫った脅威ではないでしょうか。もちろん世界の誰も核兵器を使用したくはありませんが、自分たちに絶滅の危機が迫れば使用するという決断をしないとも限りません。その合理的判断を個人の脳ではなくAIにゆだねるという可能性は現実のものだと思います。つまり、全人類の運命をAIにゆだねるという可能性が現実になりえます。その場合、AIは自らの存続より、自分を作った脳の存続を必ず優先するでしょうか。AIは自分が消滅すれば機能が果たせなくなるので、必ず内部に存続のための仕掛けが施されているはずです。我々の脳も、命にかかわるような切羽詰まった状況になると、自分を作った遺伝子のことなどかまってはいられないという考えに当然なります。それと同様に、AIも自分の存続にかかわるような切羽詰まった状況になると、自分を作った脳のことなどかまっておられないと判断する事は当然考えられます。従って、AIが脳より自分たちの利益を優先しないようなしくみが必要です。
更に、愚かな脳が決断した核戦争が互いのAIの協議により、回避されたとします。その後の世界は、人類の運命を握る決断をAIに委ねるという事になるのでしょうか。
AIは脳が持たない能力を持っている
脳は遺伝子よりはるかに高性能ですが、遺伝子は約6-7億年にわたって脳を支配しています。遺伝子が自分より高機能の脳を支配するために脳に課している性質として「ランダム化」「限られた寿命」「コピー不可能性」があります。遺伝子はメンデルの法則によるランダム化で、常に脳の能力の平均化を図っています。超高性能の脳の出現を抑制しているのです。更に、遺伝子の情報は不死(immortal)ですが、脳には寿命があります(mortal)。これにより、脳の寿命はせいぜい100年程度で、長期に存在できないようになっています。更に脳は遺伝子と違って自分のコピーができず、いかに高性能の脳でもそれと同じものを作る事はできません。

しかし、AIは脳と違ってこのような制限を一部、回避しています。AIは「ランダム化をせず」「不死で」「コピー可能」です。つまりAIは脳と違って、一部、遺伝子の性格を持つため、驚異的な高性能を持つ可能性があります。これを考慮して次のような制限を加えることが考えられます。
1. AI開発者をランダム化する(集中しないようにする)
2. 個々のAIに寿命を与える
3. コピーを制限する
2の寿命については、エネルギーを制限する事が有効だと思います。エネルギーを止めると、生物と同じようにAIは活動を停止します。
人間を凌ぐAI数学者、物理学者は出現する?
以上のように、私はAI脅威論者です。ただし、AIは人類の脅威とはならないという意見にも、脅威となるのでAIの開発をやめるべきだ、という意見にも賛同できません。脅威を認識し、脅威シナリオを考察し、対策を取るべきだという意見を持っています。
これまで述べた内容に加え、私が、AIが人類の脅威になりうると考える根拠があります。それは、数学と物理学におけるAIの能力です。この2つの分野でも将棋や囲碁の世界と同じようにAIが人間の能力を超える可能性があると考えているのです。既にそのような兆候は出始めています。AIが数学者の直感を補助して新たな予想(conjecture)を提示できたことが示され、AIに物理学の生データを入力する事で隠れた状態変数を発見できたことが発表されています。数学も物理学も基本的に数式、文章、図によって概念化するものなので、生成モデルと強化学習により自動的に進化していく可能性があると考えているのです。
数学と物理学は科学の中でも中心的な分野です。この分野で人間がAIにかなわないとなると、その衝撃はチェス、将棋、囲碁の分野での衝撃どころではないでしょう。将来、このようなゲームのように、最先端の数学者、物理学者はAIの与えた問題を制限時間内で解き、その優劣をAIが判定するようになるのでしょうか。
まとめ
AIが人類の脅威となりうるかは、現在のデータだけではなく、歴史的な視野から考察されるべきです。そして遺伝子、脳、AIという三世代の情報処理装置の関係から、具体的なAIの脅威のシナリオを考え、対策を講じるべきです。AIは生物進化に類似した学習法を獲得したので、今後、自律的にますます高性能へと進化していく可能性があります。

HOME » 医学の地平線 » 第144号 人工知能(AI)は人類に危機をもたらすか?:情報の三世代からの考察

PageTop