はじめに
汎用人工知能(AGI)の実現に向けた開発競争が加速する中、その到来が社会にもたらす変革の大きさと不確実性について、世界の議論が沸騰している。AGIは、生産性の飛躍的向上、科学的発見の加速、そして人類が直面する地球規模課題の解決に貢献する計り知れないポテンシャルを秘める一方、雇用の大規模な代替、経済格差の拡大、さらには自律的なシステムが制御不能に陥るリスクなど、深刻な懸念も提起されている。
本レポートは、AGI開発の最前線に立つサム・アルトマン氏(OpenAI)をはじめとする主要キーパーソンの公開発言、公式文書、および主要メディアの報道に基づき、彼らが描く「ポストAGI」の未来像を多角的に分析・整理するものである。到来時期の見立て、安全性の確保、経済的恩恵の分配、そしてガバナンスのあり方など、収斂する点と顕著な相違点を浮き彫りにし、政策立案者、企業、そして市民社会が取るべき指針を探ることを目的とする。
エグゼクティブサマリー
本レポートは、AGI到来後の未来に関する主要なビジョンを調査し、以下の4つの要点を明らかにした。
- 収斂する基本認識: 主要な開発組織は、AGIの段階的な展開と、独立した監査やレッドチーム評価を含む厳格な安全性検証の必要性で一致している。また、2023年のブレッチリー宣言以降、フロンティアAIがもたらす「壊滅的」リスクに対処するための国際協調が不可欠であるという認識も共有されている。さらに、AGIが生み出す莫大な富は、配当や所得支援、公共投資を通じて公正に分配されるべきという点でも、方向性はおおむね一致している。
- 顕著な見解の相違:
- 到来時期: 「5〜10年以内」と見るデミス・ハサビス氏やジェンスン・フアン氏に対し、ヤン・ルカン氏のように「まだ遠い」と考える慎重論も根強く、見解は大きく分かれている。
- リスク評価: ダリオ・アモデイ氏が「文明規模の重大逸脱」の確率を10〜25%と見積もる一方、ルカン氏などは「AI滅亡論」に懐疑的な立場を取る。
- 規制思想: アルトマン氏やアモデイ氏が提唱する、計算能力の閾値に基づくライセンス・監査制度に対し、ルカン氏らは研究開発の自由を重んじ、用途中心の規制を主張する。
- オープン性: MetaやxAIが安全性と競争促進の観点からオープンソース化を推進する一方、OpenAIやGoogle DeepMindはリスク管理を重視し、制限付きアクセスを基本とする。
- ボトルネックとしてのインフラ: AGI開発の進展は、半導体の供給能力と、データセンターを稼働させるための膨大な電力に強く制約される。アルトマン氏が言及する大規模な半導体投資構想や、核融合発電(Helion)への投資は、このインフラ制約を乗り越えようとする動きを象徴している。
- ガバナンスの方向性: 実務的な解として、能力や計算量の閾値(しきい値)に応じた多層的なガバナンスが浮上している。すなわち、最も高性能なモデルには厳格な監査・安全要件を課し、それ未満のモデルについてはイノベーションを阻害しないよう、用途に応じた規制を適用するというアプローチである。
主要キーパーソンが描くAGI後の未来
1. サム・アルトマン(OpenAI)
- 富の分配: AIによる生産性向上で増大する富を広く共有するため、企業の時価総額や土地への課税を原資とする基金「American Equity Fund」を私案として提唱。将来的には、全国民に年間約13,500ドルの配当を可能にすると試算する。
- ガバナンス: IAEA(国際原子力機関)のような国際機関を設立し、一定の能力や計算量を超えるAI開発にライセンスや監査を課すことを提案。安全性が確認されるまで段階的に展開し、公的な停止基準を設けるべきだと主張。
- インフラの制約: AIの爆発的な電力需要を賄うため、核融合などのエネルギーブレークスルーが不可欠と発言。自身が会長を務めるHelion社はMicrosoftと核融合電力の供給契約を締結。また、半導体サプライチェーン強化のために数兆ドル規模の投資構想が報じられている。
- ID基盤: Worldcoinプロジェクトを通じ、個人を証明するデジタルID(World ID)を普及させ、将来のAIによる富の分配(UBI等)のための公平なインフラを構築することを目指す。
2. デミス・ハサビス(Google DeepMind)
- 科学の加速: AGIを「AIサイエンティスト」として活用し、科学的発見のプロセス自体を自動化・加速させることを目指す。材料科学(GNoME)や生命科学(AlphaFold 3)での成果は、そのビジョンを具体化しつつある。