第13号 令和7年4月11日(金曜日)
令和七年四月十一日(金曜日)午前九時開議
出席委員
委員長 大岡 敏孝君
理事 黄川田仁志君 理事 國場幸之助君
理事 西銘恒三郎君 理事 今井 雅人君
理事 本庄 知史君 理事 山岸 一生君
理事 市村浩一郎君 理事 田中 健君
石橋林太郎君 石原 宏高君
井野 俊郎君 江渡 聡徳君
英利アルフィヤ君 大空 幸星君
尾崎 正直君 岸 信千世君
栗原 渉君 田中 良生君
西野 太亮君 平井 卓也君
平沼正二郎君 広瀬 建君
宮下 一郎君 森下 千里君
山際大志郎君 山口 壯君
若山 慎司君 市來 伴子君
梅谷 守君 おおたけりえ君
下野 幸助君 橋本 慧悟君
藤岡たかお君 馬淵 澄夫君
水沼 秀幸君 山 登志浩君
伊東 信久君 三木 圭恵君
石井 智恵君 菊池大二郎君
河西 宏一君 山崎 正恭君
上村 英明君 塩川 鉄也君
緒方林太郎君
…………………………………
国務大臣
(科学技術政策担当) 城内 実君
内閣府大臣政務官 西野 太亮君
内閣府大臣政務官 岸 信千世君
法務大臣政務官 神田 潤一君
政府参考人
(内閣府科学技術・イノベーション推進事務局統括官) 渡邊 昇治君
政府参考人
(内閣府科学技術・イノベーション推進事務局審議官) 徳増 伸二君
政府参考人
(個人情報保護委員会事務局長) 佐脇紀代志君
政府参考人
(デジタル庁審議官) 井幡 晃三君
政府参考人
(総務省大臣官房総括審議官) 恩田 馨君
政府参考人
(総務省自治行政局選挙部長) 笠置 隆範君
政府参考人
(法務省大臣官房審議官) 内野 宗揮君
政府参考人
(法務省大臣官房審議官) 吉田 雅之君
政府参考人
(文部科学省大臣官房文部科学戦略官) 中原 裕彦君
政府参考人
(文化庁審議官) 小林万里子君
政府参考人
(経済産業省大臣官房審議官) 田尻 貴裕君
政府参考人
(資源エネルギー庁長官官房資源エネルギー政策統括調整官) 山田 仁君
政府参考人
(中小企業庁経営支援部長) 岡田 智裕君
内閣委員会専門員 田中 仁君
―――――――――――――
委員の異動
四月十一日
辞任 補欠選任
江渡 聡徳君 若山 慎司君
尾崎 正直君 石橋林太郎君
西野 太亮君 広瀬 建君
山際大志郎君 英利アルフィヤ君
同日
辞任 補欠選任
石橋林太郎君 森下 千里君
英利アルフィヤ君 大空 幸星君
広瀬 建君 西野 太亮君
若山 慎司君 江渡 聡徳君
同日
辞任 補欠選任
大空 幸星君 山際大志郎君
森下 千里君 尾崎 正直君
―――――――――――――
本日の会議に付した案件
政府参考人出頭要求に関する件
参考人出頭要求に関する件
人工知能関連技術の研究開発及び活用の推進に関する法律案(内閣提出第二九号)
――――◇―――――
○大岡委員長 これより会議を開きます。
内閣提出、人工知能関連技術の研究開発及び活用の推進に関する法律案を議題といたします。
この際、参考人出頭要求に関する件についてお諮りいたします。
本案審査のため、来る十六日水曜日午前九時、参考人の出席を求め、意見を聴取することとし、その人選等につきましては、委員長に御一任願いたいと存じますが、御異議ありませんか。
〔「異議なし」と呼ぶ者あり〕
○大岡委員長 御異議なしと認めます。よって、そのように決しました。
引き続き、お諮りいたします。
本案審査のため、本日、政府参考人として、お手元に配付いたしておりますとおり、内閣府科学技術・イノベーション推進事務局統括官渡邊昇治君外十一名の出席を求め、説明を聴取いたしたいと存じますが、御異議ありませんか。
〔「異議なし」と呼ぶ者あり〕
○大岡委員長 御異議なしと認めます。よって、そのように決しました。
―――――――――――――
○大岡委員長 これより質疑に入ります。
質疑の申出がありますので、順次これを許します。田中良生君。
○田中(良)委員 皆さん、おはようございます。自民党の田中良生です。
今日は、当内閣委員会において、城内大臣の初の法案質疑に立たせていただきます。光栄に存じます。城内大臣は外交にも精通しておりますので、トランプ関税に関してもお聞きしたいところでありますが、今日は法案質疑ということですので、このAI推進法について、大局的見地から御議論をいただければと思います。よろしくお願いいたします。
さて、AI推進法でありますが、まずは、AIとは何か。AIとは、人間と同じ知的作業をする機械を工学的に実現する技術と言えるものであります。世界経済ですとか人間社会を大きく変容させる力を持ち得るものと考えているところであります。
AIは、現在、かつてない速度で進歩をして、経済や社会に大きな変革をもたらしています。特に、中でも、生成AIを始めとする最新のAI技術、これはビジネスから日常生活に至るまで幅広い分野で活用が拡大して、今、新たな付加価値を生み出し続けているところであります。その経済のインパクトはまさに膨大であります。
ある試算によれば、この生成AIの活用によって、日本国内で約百四十八・七兆円もの生産性向上が期待できるとされているところであります。これは我が国のGDPの四分の一に相当する規模でありまして、AIの普及が中長期的な経済成長の原動力となり得ることを示していると思います。
さらに、AIとロボット技術の導入は、生産年齢人口の減少という日本経済の構造的な課題に対する有力な解決策とも位置づけられるところであります。
政府が提唱いたしますソサエティー五・〇の理念においても、AIは経済発展と社会課題の解決を両立する鍵として期待をされているところであります。高度に融合したサイバー空間、現実空間を通じて人間中心の豊かな社会を実現する、こういう基盤技術とされているところであります。
一方で、AIの急速な普及に伴って、プライバシーですとかセキュリティー、公平性の確保など、新たな課題も今指摘をされているところであります。各国政府や国際機関は、人権尊重やリスク管理の観点からもAI原則や規制の策定を今進め始めております。国際的なルール形成に向けた競争も今活発化をしつつあるところであります。
こうした状況にある中、我が国が主導して、AIの利活用とルール整備の両面でバランスの取れたモデル、これを示していくことが極めて重要と考えるものであります。
まずは城内大臣にお伺いさせていただきます。
総論として、本法案の趣旨、必要性、これはいかがなものか、お伺いしたいと思います。
○城内国務大臣 田中良生委員の御質問にお答えしたいと思います。
言うまでもなく、AIは我が国の経済社会の発展に必要となる基盤技術であるとともに、安全保障の観点からも不可欠な技術であります。
一方で、AIがもたらす様々なリスクも懸念されておりまして、多くの国民の皆様がAIに対して不安を感じていらっしゃるとともに、我が国のAIの研究開発と活用は、他の先進国と比べてやはり低迷している状況にございます。
こうした状況を克服していくためには、柔軟かつ適切にリスクへの対応を行うとともに、安全、安心なAIの開発を進めることで国民の皆様のAIに対する不安をしっかり払拭し、AIの研究開発と活用を強力に進めていくことが重要と考えております。
こうしたAIにつきまして、これまで我が国におきましては、既存の刑法や個別の業法等、例えば、AIを使った医療機器でしたら薬機法とか、あるいはAIの技術を使った自動運転技術につきましては道路運送車両法、こういった個別の業法等によりAIに係るリスクに対応してまいりましたが、それと同時に、AI戦略の策定などを通じて政策の推進も図ってきたところでございます。
他方で、昨今のAIの技術進展の状況等を踏まえますと、既存の法令等による対応に加えまして、AI政策の司令塔機能をしっかり強化するとともに、AI関連技術の研究開発と活用の推進に係る施策を総合的かつ計画的に推進する必要がございまして、本案を提出させていただいたところでございます。
この法案に規定された施策等を全力で進めまして、AIのイノベーション促進とリスク対応の両立をしっかり図って、我が国が世界で最もAIを開発、活用しやすい国となることを目指してまいる考えであります。
○田中(良)委員 ありがとうございます。
AIの恩恵を最大限に引き出しつつ、リスクに備える枠組みを構築することが重要であるということだろうと思います。日本経済の持続的な成長と国際的なAIガバナンスへの貢献、これを両立させていかなければならないということだろうと思います。
今回提出されましたこのAI推進法案でありますが、AI時代を見据えた国内体制の整備であると同時に、やはり国際社会における先導的なモデルケースとしていかなくてはならないと考えるところであります。
日本政府は、世界に先駆けて、人間中心のAI社会原則を打ち出しました。一昨年のG7広島サミットでは、生成AIを含む高度なAIの国際ルール策定に向けたいわゆる広島AIプロセス、こうしたものを主導してきました。
国際的な規範策定に重要な役割を果たしてきたものと認識をしておりますが、改めて、これまで我が国が果たしてきた役割についてお伺いをさせていただきたいと思います。
○渡邊政府参考人 日本がこれまで国際的に果たしてきた役割についてお答え申し上げます。
我が国は、二〇一六年に、G7情報通信大臣会合におきまして、AI研究開発の原則の素案を提案いたしまして、その後、二〇一九年に、人間中心のAI社会原則を公表したところでございます。これは、同じ年にOECDで採択されました、国際的なAIガバナンスに関する基本的な原則であります、AIに関するOECD原則に大きな影響を与えたと認識をしております。
また、二〇二三年になりますけれども、我が国が議長国となって開催されたG7におきまして、AI関係者に向けた国際規範であります広島AIプロセスを日本が主導して実施してまいりました。
その後、二〇二四年五月のOECD閣僚理事会におきまして、我が国が積極的に関わる形で、広島AIプロセス・フレンズグループを立ち上げまして、現在では五十五の国・地域が賛同するなど、アウトリーチ活動も積極的にかつ主体的に行っているところでございます。
これらの国際的な取組は、人類共通の利益のために、AIのもたらすリスクを軽減しつつ、安全、安心で信頼できるAIの開発あるいは利用を促進する環境整備に資するものと考えております。
我が国はAIに関する国際的な規範作りをリードしてきておりまして、今後も引き続き努力してまいりたいと考えております。
○田中(良)委員 ありがとうございます。
次に、諸外国との差異についてお伺いさせていただきたいと思います。
このAIガバナンスをめぐっては、各国がそれぞれ異なるアプローチを模索しています。各国の対応は様々でありますけれども、その根底にある課題、これは共通をしていると思います。すなわち、AIの持つ恩恵を最大化しつつ、リスクを抑制するためにどのようなルール形成が最適かという点であろうと思います。
そこで、お伺いします。
主要諸外国と我が国との法制度の比較、特性についてお伺いさせていただきたいと思います。
○渡邊政府参考人 諸外国のAIに関する制度と我が国の制度の比較につきましてお答えを申し上げます。
近年、世界各国においてAI法制度に関する対応は進んでいるというふうに認識をしておりますけれども、例えば、EUにおきましては、人間の安全ですとか基本的な権利の保護という観点から、新たに法律を制定いたしまして、包括的な規制を導入しているということでございます。
一方、アメリカにおきましては、今、いろいろ変化があるところでございますけれども、安全保障リスクに対応しつつも、基本的には、事業者の自主的取組を踏まえた上で、既存の法令を活用しながら進めているというふうに認識をしております。
このように、それぞれの国の法体系、あるいは社会的、歴史的背景は異なっていると思いますが、それに応じて制度整備が進められているというふうに考えております。
こうした中、我が国におきましては、既存の法令ですとかガイドラインを活用しながら、国際整合性を保ちながら、イノベーション促進とリスクへの対応を図る、このために、体制整備、総合的な施策、指針、調査、情報収集等から成ります、いわゆる規制法ではない形の法律を新たに設けたいというふうに考えております。
この法案は、AIの研究開発や実装を加速することのできる、そして新しい技術に対応できる、予測できない事態に対応できる、バランスのある法制度というふうに考えておりまして、世界各国のモデルになり得るものと考えております。
○田中(良)委員 分かりました。
ということは、我が国のアプローチでありますけれども、現時点では、EUのように詳細規制で縛り過ぎることはなく、他方で、米国のように政府が全く関与しないわけでもない。つまり、中庸かつ機動的な方針に特徴があるのだろうというふうに考えるものであります。
このような、促進と規律の両立、これを図る戦略によって、日本モデルとして、イノベーションとリスク対応の調和を実現して、国際的にも、調和、整合性の取れたルール形成に貢献していく考えであろうというふうに理解をさせていただきたいと思います。
次に、ソフトローでの対応の実効性についてお伺いをさせていただきたいと思います。
我が国では、これまで、AI分野において、ソフトロー、つまり非拘束力の、ガイドラインですとか業界の自主規制等を重視する方針で、段階的に対応を進めてきたものと思っております。
二〇一九年には、人間中心のAI社会原則、これを策定して、産官学の協調の下でAIの利活用の倫理指針を示しているところであります。
また、総務省、経産省では、AI事業者ガイドラインの策定など、企業が遵守すべき具体的な望ましいアプローチ、これを提示してきたところであります。
改めて、AIのリスクへの対応に関する政府の基本的な考え方をお伺いしたいと思います。
○渡邊政府参考人 お答え申し上げます。
AIは、国の競争力ですとか社会の豊かさを左右する極めて重要な技術である一方で、御指摘のとおり、様々なリスクをもたらし得る技術でございます。
現在顕在化しておりますリスク、特に著しく悪質な事案に対しましては刑法等の既存の法令によって対処可能というふうに考えておりますけれども、AIの急速な技術の発展と活用の拡大によりまして、予測できない新たなリスクが発生する可能性、悪質な事例が増える可能性は否定できないことから、臨機応変に対応するという観点から、本法案を提出しているところでございます。
少し具体的にこの法案の内容を御説明いたしますと、AIの研究開発、活用の適正性の確保のための国際規範に即した指針の整備、そして、国内外のAIの研究開発、活用の動向に関する情報の収集、国民の権利利益の侵害が生じた事案の分析、対策検討その他の調査、そして、その調査結果を踏まえた活用事業者等への指導、助言、情報の提供等を国が行うこととしておりまして、既存の法令の活用とこうした取組を組み合わせることで、新たに顕在化するリスクにも適切に対応していくことが可能というふうに考えております。
○田中(良)委員 今お聞きしておりましたが、やはりソフトローに対する不安というのはあろうかと思います。今回のAI法案、やはり、ガイドライン策定ですとか業界の自主的取組の促進、これが重要な柱になろうかと思います。
政府は、本法案に基づいて、AI戦略本部を設置して基本方針を策定するなど、ソフトローに対する機動的な政策を進める考えであろうかと思いますが、既存法とAI法と既存のガイドライン、この組合せだけで本当に対応が十分であると言えるのか、もう一度改めてお伺いさせていただきたいと思います。
○渡邊政府参考人 お答え申し上げます。
先ほども申し上げましたとおり、指針の整備等を進めていきたいというふうに思っておりますけれども、この指針は、AI開発者、活用者が遵守すべき事項等を含む指針ということでございまして、これは法律に基づきまして明確に定めたいというふうに思っております。
また、悪質な事案等につきましては、国が調査、あるいはその調査の結果に基づく指導、助言等を行うことによりまして、これも明確にその規定を定めることによりまして、そういった顕在化するリスクに対して対応していけるというふうに考えております。
○田中(良)委員 ありがとうございます。
ソフトローは、柔軟性が高い反面、法的な強制力を欠きます。そういう意味で、やはり実効性に疑問が呈されることもある。今お聞きして、本当に企業の善意に委ねるだけで十分なのか、批判があった場合はどうするのかといった懸念はやはりあるものと思います。
しかし、今お聞きしていて、他方で、罰則がないからといって直ちに無力というわけではないなと。むしろ、迅速な技術革新に法律が追いつかなくなるというリスクを減らして、必要に応じて他の個別法で対処するという柔軟性も確保する、こういう意義もあるというふうに理解をさせていただきたいと思います。
次に、日本のAIの国際競争力強化についてお伺いをさせていただきたいと思います。
昨今の生成AIブーム、また基盤的なAIモデル、大型の言語モデル等、この急速な進歩において、米国や中国の存在感、これが際立っているところであります。
御案内のとおり、米国では、巨大IT企業を中心に莫大な投資が行われて、オープンAIのチャットGPTに代表される革新的な生成AI、これが世界をリードしてきたところであります。
また、中国も、国家戦略としてAI研究開発に巨額の資金を投入して、独自の生成AIモデルですとか応用製品、これを次々に生み出しているところであります。
政府による研究開発に関する政策の取組状況、これが分かればお教えいただきたいと思います。
○渡邊政府参考人 政府によります研究開発に関する状況につきまして御説明申し上げます。
まず、AIの研究開発力の強化につきましては、二〇二三年の五月にAI戦略会議がまとめました暫定的な論点整理に基づきまして、あるいは、二〇二四年の六月に閣議決定されました統合イノベーション戦略に基づきまして、計算資源の確保ですとか、データの整備、あるいは基盤開発力の強化などに関係省庁が連携して取り組んでいるところであります。
具体的には、一つは、今申し上げました、官民における計算資源の整備支援でございます。AIはデータセンターがなければ開発することができませんので、データセンターあるいはクラウドの整備支援ということになります。また、二つ目に、スタートアップ等に対する、モデル開発等に対する支援ということでございます。計算資源を提供する等の方法によって支援をするということでございます。また、三番目に、AIはデータがなければ進化しませんので、AI学習用のデータの整備、提供。四番目に、基礎的な、あるいは基盤的な研究開発の推進。そして五番目に、何といっても基本は人材でございますので、研究開発に携わる人材の育成などを進めているところでございます。
○田中(良)委員 残念ながら、我が国は近年、AI分野でやはり出遅れ感、これはもう否めないのが実情であります。しかし、だからといって、日本がこの分野で巻き返しを図る余地がないわけではないと思います。やはり日本の強みを生かして、戦略的投資と政策支援、これによって国際競争力を高めるようにしていかなくてはいけないということだろうと思います。
我が国は、AI基盤技術の自律性を高めるとともに、国内産業への波及効果を何としても拡大していかなくてはならないと考えるところであります。AIの中でも汎用的に使われる生成AIについて、国産の生成AIを研究開発することがやはり一番有意義だと考えるものであります。
そのための課題は一体何なのか、お伺いをさせていただきたいと思います。
○渡邊政府参考人 国産の汎用的な生成AIにつきまして、考え方を御説明したいと思います。
現時点では、今御指摘ございましたように、汎用生成AIは外国製のものが主流でございます。しかしながら、AIが日本人の国民生活ですとか経済社会に密接に関係する、多くの方がそれを使うようになってきますと、やはり正確な日本語ですとか日本の文化ですとか商習慣を正確に捉えて回答できる、そういうAIが必要だと思っておりまして、そのために国産の汎用生成AIというのは重要ではないかというふうに考えております。
しかし、幾つかの課題があるというふうに考えておりまして、一つはまず、研究開発に係る資金あるいは人材でございます。これをどうやって集めていくかというのが一つ大きな点であります。また、日本語はどうしても、世界の中ではややマイナーな言語といいますか、ちょっと表現が適当ではないかもしれませんけれども、少数言語になるのかなと思っておりまして、データが少ないという面があろうと思います。また、日本語特有の難しさ、同音異義語が多いですとか、あるいは敬語があるとか、いろいろな面の問題があるというふうに思っています。
いろいろな課題はございますけれども、しっかりと競争力を高めるべく取り組んでまいりたいというふうに考えております。
○田中(良)委員 併せてもう一点、AI活用の拡大というのは、生産性向上による経済成長をやはりもたらします。しかし、それのみならず、労働力不足ですとか高齢化といった社会課題の解決にも資する、これがやはり意義ある部分であろうかと思います。国内においても、AIのエコシステムを活性化して、AI大国日本としての地位、これを何としても確立していくことが必要だろうと思います。
そのためには、やはりルール作りが重要でありますし、また、その過程で培われる技術ですとかルール、この双方が国際標準作りにも貢献し得るものと考えます。
また同時に、やはりそのためには、優秀なAIの人材の育成、確保、これが不可欠であります。優秀なAI人材の育成、確保がなければ競争力の強化はできないものと考えるところであります。
政府はどのように取り組んでいくか、この点に関してもお聞きしたいと思います。
○渡邊政府参考人 人材の育成、確保につきましてお答え申し上げます。
この問題は、大変本質的な問題だというふうに考えております。AIの人材につきましては、基礎的な研究をする方も必要であれば、また、実践的にそれを導入していくような人材、いろいろな、多様な人材が必要だというふうに考えております。
これに対して、政府としましては、例えば、大学で優れた人材を育てるようなプログラムですとか、あるいは大学院、博士課程の人材に対する支援をするプログラム、そういったものの取組を進めてきております。
また、今般のAI法案でも、法案の第十四条でございますけれども、AI関連技術の基礎研究から国民生活等における活用に至るまでの各段階において必要となる専門的かつ幅広い知識を有する多様な分野の人材の確保、養成及び資質の向上に必要な施策を講ずるというふうに規定しているところでございます。
この法案を成立させていただいた暁には、内閣府が司令塔となって、関係省庁、地方公共団体、研究開発機関、活用事業者等と緊密に連携協力しまして、人材の育成、確保の取組を更に推進していきたいというふうに考えております。
○田中(良)委員 ありがとうございます。
総論に始まって、AI法案をめぐる論点ですとか我が国の対応方針について概観をさせていただきました。
本法案は、やはり、急速に発展するAI技術を我が国の経済の飛躍につなげていくと同時に、そのリスクに備える初の包括的な枠組みになるものと考えております。
本法案は、罰則なき推進法として、柔軟性と機動性を備えるものであります。状況の変化に応じた迅速な対応が可能になるものと考えます。
政府が主導するイノベーション支援策と業界の自主的なガバナンスによって、やはり日本はAIを作れる国、そして使える国、こういうものを構築して、国際的な存在感を高めていくことが何よりも重要であろうと思います。そして、日本の取組を世界のAIガバナンスにおけるモデルケースとしていく。我が国が掲げる、人間中心かつリスクベースのアプローチ、これは国際社会においても重要な示唆を提供するものと考えるところであります。実際、G7を始めとする場においても、日本発の原則ですとかガイドラインが打ち出されました。それぞれが各国の議論に影響を与えているということでもあります。
本法案に基づいて構築される制度や知見を今後グローバルなルールメイキングにつなげていかなくてはならないと思います。我が国が主導する形で、このAI法を国際ルールのモデルとして位置づけていくこと、将来の世界的なAI社会の発展に資する、こうした信念の下に、本法案がその歴史的な一歩となること、これを期待するところであります。
最後に、城内大臣にお尋ねしたいと思います。
意気込みとともに、日本がグローバルに勝負できる企業、これが、どのようにつくっていくのか、また、我が国のAI戦略の道行きそしてシナリオ等をお伺いしたいと思います。
○城内国務大臣 お答えいたします。
いわゆる第三次AIブーム以降、米国や英国、イギリスですね、中国を始め、世界各国におきましてAIに関する民間投資が増加傾向にありまして、やはりビッグテックなどの大変資本力の大きな企業がAI開発をリードしている、先導している状況にあります。
そうした中、大規模な計算資源とデータを用いた大規模言語モデル、LLMの開発のような取組は、やはりそうした資本力の大きな企業が引き続き競争力を有していることは事実であります。他方で、近年は、小規模なモデルでも高性能AIが実現されるなど、我が国でも多くの企業にチャンスが訪れていると考えております。
例えば、我が国では、ロボット、医療、防災等の分野におきまして良質なデータを保有するなどの強みを持っております。それらの分野におけるAIの研究開発、活用において、既にグローバルに活躍している日本企業が存在しております。そして、これらが今後世界をこの分野でリードしていくというふうに考えております。
いずれにしましても、本法案が成立した暁には、AI戦略本部が司令塔機能をしっかりと発揮し、各府省庁がこれまで以上に緊密に連携しながら、各種の取組を総合的かつ計画的に進めていくこととなっております。
今後、新たな取組を始める企業も含めて、グローバルに挑戦する日本企業の活動を、政府一丸となってしっかりと後押しする考えであります。
○田中(良)委員 AIを作れる国、使える国、そしてAI大国日本を目指して、城内大臣のリーダーシップを御期待申し上げて、質問を終わります。
ありがとうございました。
○大岡委員長 次に、橋本慧悟君。
○橋本(慧)委員 立憲民主党・無所属の橋本慧悟です。
本日、この質疑に立たせていただきまして、関係者の皆様、諸先輩方、本当にありがとうございます。そして、一言、地元、兵庫九区、明石市そして淡路島の皆様にもしっかりと感謝の気持ちを持ってこの質疑に挑んでいきたいと思います。城内大臣、どうぞよろしくお願いいたします。
人工知能関連技術の研究開発及び活用の推進に関する法律案、いわゆるAI推進法と呼ばせていただきます。先日の大臣からの提案理由にもございましたが、「人工知能関連技術は、その適正かつ効果的な活用によって行政事務及び民間の事業活動の著しい効率化及び高度化並びに新産業の創出をもたらすものとして経済社会の発展の基盤となる技術であるとともに、安全保障の観点からも重要な技術です。」とおっしゃっていました。
利便性向上や技術革新、そして国内関連産業の国際競争力をしっかりと上げていくためにもこの分野の成長は本当に大切だと我々も思っていますし、後押しをしてまいりたい立場であるということを冒頭申し上げて、入っていきたいと思います。
先ほど田中委員の質疑からも、GDPの約四分の一、約百五十兆円にも及ぶような生産性向上をもたらすといった効果も期待されているわけですから、しっかりと議論をして進めていきたいと思います。
その中で、国産の生成AIの実用化の取組について、まずお聞きをいたします。
昨年夏のICT総研、二〇二四年度生成AIサービス利用動向に関する調査によると、我が国での利用状況については、生成AIサービスユーザーに占める利用率は、オープンAIさんのチャットGPTが一八・三%、マイクロソフトのCopilotが八・九%、グーグルのGeminiが五・四%という結果であり、外国産の生成AIサービスで多くを占められている状況です。
このAI推進法は、理念として、イノベーションを促進、そしてAIを最も開発、活用しやすい国へとの思いも大臣は込められていると思いますし、国内のイノベーションを我々も支援をしてまいります。国産の生成AIの研究開発に当たって、外国産の生成AIを基に開発するのがよいと考えているのか、あるいはゼロベースで純粋な国産の生成AIというのを活用していくべきと思っているのか、政府のお考えをお聞かせください。
○城内国務大臣 橋本慧悟委員にお答えいたします。
様々な分野で利用されております生成AIにつきましては、外国産の生成AIを基に開発するものもあれば、また、御指摘のようにゼロベースで国内企業が開発するものもある、両方あるということを認識しております。
生成AIは、国民生活や経済社会に密接に関係するものでありまして、今後も様々な発展の可能性が見込まれる中、産業競争力や経済安全保障の観点も踏まえて、その開発形態は様々な選択を取れるようにしていくことが重要であるというふうに考えております。
政府といたしましては、我が国の民間企業及び研究機関による研究開発やそれを通じた人材育成をこうした考えの下で強力に進めていく考えであります。
○橋本(慧)委員 御答弁をいただきました。
現状、外国産の生成AIサービスがどうしても大きなシェアを占める現状なのですが、日本語をベースとした生成AIを開発すること、先ほどの田中委員の質疑の中でも御答弁があって、日本語は難しいでありますとか、敬語があったりとか、なかなか難しいんだという話もありますが、この特有の課題、日本語をベースとした生成AIを開発することに対する特有の課題を端的にお知らせください。
○城内国務大臣 お答えします。
多くの生成AIは英語や日本語での複数の言語に対応した開発が行われておりまして、言語の違いに起因する大きな技術的な課題はないものと認識しておりますが、他方で、日本語の場合は同音異義語が多いというような特徴もございます。他方、世界的に広く使われている英語と比較すると、やはり日本語のデータ量は圧倒的に少ないわけでございまして、AIの学習がそういった面で難しい側面はございます。
このため、日本の生成AIの開発に当たっては、こうした日本語の特性もしっかり踏まえて進めていくことが重要であるというふうに考えております。
○橋本(慧)委員 まさに、御答弁をいただきまして、日本語のデータが少ないということだと思います。
生成AIでは、大量のデータを学習させてモデルの規模を巨大化するほどその予測精度も向上することから、大規模言語モデル、ラージランゲージモデル、LLMと呼ばれたり、この開発が、モデルの大規模化を目指して熾烈な競争が繰り広げられていると認識をしております。
この言語モデルというのは、人間が話したり書いたりする言葉や文章を基に単語の出現確率をモデル化する技術だと認識しています。
具体的には、大量のテキストデータから学習をして、ある単語の後に続く単語がどのくらいの確率で出現するのかを予測するものです。例えば、私の職業は、というような文章の後に続く単語として、教師ですとかエンジニアですとか保育士ですというような、それは確率として高いなという判断が働き、ここにある机とか黒色とかスーツとかという言葉は可能性としては低いと判断していく、それで言語をモデル化していくものだと思います。こうして言語モデルは、単語の出現確率を統計的に分析することで人間の言語を理解して予測ができるようになると思います。
それで、生成AIの基盤となる大規模言語モデルの開発では、やはりマイクロソフトやグーグルなど米国のビッグテック企業が先行している現状にありまして、我が国においても国産の大規模言語モデルの開発に向けた取組は進められていると思いますが、生成AIを日本語で問題なく使えるようにするためには、高品質の日本語のウェブテキストというのを学習データとしてしっかりと収集をして、この構築に利活用できるようにしておく必要があると思います。
学習データに用いられる日本語のウェブテキストとしては、具体的にどのようなものを想定されていますでしょうか。
○渡邊政府参考人 AIの学習用データにつきましてお答えを申し上げます。
委員御指摘のとおり、AIの性能を定めるものは幾つかございます、データセンターとかアルゴリズムとかいろいろございますけれども、その中でもこの学習データというのは非常に重要なものでございます。
これは、例えば、日本語の学習データに関して申し上げますと、内容が正しいということも必要ですし、日本語としても正しい、文法も正しい、そういう必要性がございます。
一般的に、AIにもいろいろなものがありますので、汎用の生成AIに関してお答えを申し上げますと、基本的には、まず官公庁が出している、公的機関等のウェブサイトのテキストデータですとか、あるいは法令のデータベースですとか、あるいはまさにこの国会の議事録とか、私が答弁しているので余りちょっと自信がないところもありますけれども、でも、正しいデータベースですね、そういったものを学習している。
それから、よく見られますウィキペディア、この情報も使われているというふうに聞いております。ただ、ウィキペディアの場合には、どうしても個人情報とかが載ってしまっている場合がございますので、ある開発業者によりますと、その個人情報というのをAIで認識をして、それをマスキングするような処理をして活用しているというふうに聞いております。あるいは、ウィキペディアですとURLとかけい線とかいろいろなものが入っているんですけれども、こういうものを抜いて処理をしているというふうに聞いています。
いずれにしましても、正しいデータ、正しいといいますか、学習に適したデータベースで効率よく学習できる、そういうデータを活用するということが必要であるというふうに考えております。
○橋本(慧)委員 御答弁をいただきました。
官公庁のページでありますとか、この国会とかの、政府、行政の、ちょっとがちがちになり過ぎて、余りにもちょっとつまらないような生成AIというか、データが収集されるんじゃないかなという懸念はちょっと感じますが。
先ほど御答弁の中でも触れていただいたウィキペディア、広く国民はこのウィキペディアというのを使ったことがあると思います。その中で、確かに比較的信頼できる大量の情報が集まっているとは思いますが、悪意のある者が書き込んだ偽情報というのも学習データとして用いられる可能性もあると思います。それを、生成AIに偽の情報を出力させられるということをデータポイズニングと言うようですけれども、これについての事例や対策についてお答えいただけますか。
○城内国務大臣 お答えいたします。
データポイズニングは、御指摘のとおり、悪意を持った攻撃者がAIの学習データに不正確又は有害なデータを組み込むことにより、AIが誤った応答や偏った情報を生成するように誘導する攻撃手法であります。
過去には、利用者との会話データを基に自ら学習するチャットボットサービスにおいて、極端な主張を繰り返し学習、訓練されたことで差別的な出力を行うようになったという具体的な事案がございました。その際は、サービス事業者が利用者が入力したデータをAIの学習に利用しないといった対策を講じたというふうに承知しております。
なお、国立研究開発法人産業技術総合研究所、いわゆる産総研におきましては、AI開発者向けに、データポイズニングへの対策も含めました機械学習品質マネジメントガイドライン、これを公開して、随時改定しているところでございます。
その中で、具体的な対策として申し上げますと、例えば、統計的に異常な出力結果が出た場合に関連データや学習データから除去する手法、あるいは、複数の学習モデルを組み合わせて有害なデータの影響を軽減する学習手法、これらを提示し、AIシステムの品質管理に役立てていただくこととしております。
○橋本(慧)委員 御答弁をいただきました。確かに、そういった差別的な出力がされるようになるとか、本当にこれから防いでいかないといけないこともたくさんあると思います。これから議論が進んでいくと思います。
済みません、一つ飛ばさせていただいて、AIが抱えるリスクへの対応ということで移らせていただいてもいいですかね。先ほどの御答弁の中でもありましたので、こちらの方が有機的につながってくる質問かなと思うんですが。
AIは、過去のデータを機械的に学習して現在及び将来の予測に役立てるものであるという性質上、過去の学習データ自体に含まれているバイアス、偏見ですね、この影響を完全に排除することはできない、そして、結果的に人の意思決定自体がゆがめられてしまうこともあるんじゃないかなという、そんな懸念を持っています。
平成三十一年三月に取りまとめられた、人間中心のAI社会原則においては、AIの情報リソースとなるデータ、アルゴリズム、又はその双方にはバイアス、偏見が含まれている、及びそれらを望ましくない目的のために利用する者がいることを認識する能力を、我々、人々が持つことが重要だとされました。
そして、今年の二月に公表されたAI戦略会議・AI制度研究会中間取りまとめ、以下、中間取りまとめと言っていきますが、ここにおいても、政府等がAIを利用する際には、国民の権利利益に重大な影響を及ぼしかねないものについては、AIの出力結果を自動的に採用することのリスクを踏まえて慎重に取り組むべきであるとされています。
一部の省庁でありますとか地方自治体においても生成AIを活用した業務効率化というのも図られていくようですが、公的部門におけるAIによるバイアスの排除に関して、政府はどのように対応していくのでしょうか。お願いします。
○井幡政府参考人 お答えいたします。
行政サービスの質の維持向上、こういった観点から、業務における生成AIの利活用を進めることは非常に重要でございます。他方で、委員御指摘のように、生成AIのリスク管理、こちらも一体的に進める必要がございますことから、政府機関などにおきます業務活用、これにおける注意事項をまとめたものを関係省庁間で申合せを行っているというところでございます。
さらに、今後、政府における生成AIの利活用を拡大するものと見込まれておりますので、具体的なリスクに関する対応事項などにつきまして、生成AIの調達、利活用に関するガイドライン、これを新たに定めることとしておりまして、来月を目途に策定したいというふうに考えております。
このガイドラインが、まさに本日までパブリックコメントの募集を行っているところでございますけれども、このガイドラインにおきましては、各府省において生成AIを利用する際の職員向けのルール、これを定めることでございますとか、あるいは、このガイドラインの中で調達チェックシート、これをお示しすることで、各府省の方で生成AIシステムを調達する際に安全かつ品質の高いシステムを調達できるようにすること、こういったことを定めているところでございます。
このような取組を通じまして、委員御指摘の出力結果に含まれるバイアス、こういった生成AIのリスクに対応してまいりたいというふうに考えております。
○橋本(慧)委員 御答弁を丁寧にいただきました。調達チェックシートを定めるとか、いろいろな手法で適正な利用に向けて取り組まれると思いますが、本当にこの公的部門がしっかりと信頼性を維持していくためにもそういった取組は重要だと思いますので、是非今後もよろしくお願いします。
そして、中間取りまとめにおきましては、AIに関する意識調査の結果によると、日本では、現在の規則や法律でAIを安全に利用できると思う回答者は一三%と低く、逆に、七七%の人がAIには規制が必要だと考えていると記載されています。また、品質の不安定さとか、プロセスのブラックボックス化、見えないですね、そういった状況等についてリスクを感じているほか、政府に求めることとして、AIの悪用や犯罪に対する法的対策の強化というのが挙げられています。
これに対して、本法律案においては、リスクへの対応に係る措置に関する勧告、命令等の規定がございません。「不正な目的又は不適切な方法による人工知能関連技術の研究開発又は活用に伴って国民の権利利益の侵害が生じた事案の分析及びそれに基づく対策の検討その他の人工知能関連技術の研究開発及び活用の推進に資する調査及び研究を行い、その結果に基づいて、研究開発機関、活用事業者その他の者に対する指導、助言、情報の提供その他の必要な措置を講ずるものとする。」と第十六条にも規定されております。
こういった規定があるにもかかわらず、本法案には、そのリスクへの対応に係る措置に関する勧告、命令等の規制というのが設けられていないのはなぜなんでしょうか。
○渡邊政府参考人 勧告、命令等の規定につきましては、これを設けない理由につきましては、罰則を設けない理由と共通する部分があると思っておりまして、答弁を申し上げます。
まず、現在顕在化しているリスクにつきましては、これは実際に事例もあるわけですけれども、現行法令に基づいて対処をしているというところでございます。
その上で、AIは、技術の変化が速くて、また、どういうリスクが生じるか予測が難しいというところがございます。そういう中で、命令ということになりますと、これは非常に重い処分ということになりますので、命令の前提になります禁止行為ですとか基準を不公平なく明確に定めていく必要がございます。これが現時点では難しく、むしろ臨機応変に予想外の問題に対応していくためには、今回の法案の中で提案させていただいているような、様々な事案に対して国が臨機応変に情報収集、調査をして、分析、検討していくということが望ましいというふうに考えております。
○橋本(慧)委員 臨機応変に対応するためにもというお話がありましたが、やはり、我々は推進をしっかりしていく立場ではありますが、それと同時に、そういったリスクへの対応というのを国民に対してもしっかりと周知していく必要があると考えています。
例えばEUのAI法におきましては、AIのリスクに応じて規制内容を変えるリスクベースアプローチという方針に基づいて、規制対象を四段階のリスクレベルのAIアプリケーション及びシステムというものに分類をして、それぞれに対して異なる規制を課すこととされていると思います。これに対して、本法案では、やはり、リスク対応に係る措置に関する勧告、命令等の規定が置かれていないなと、比較をして感じるところです。
AIのリスクは多様であるため、ハイリスクのAIについてのみ厳しい規制を課した上で、そうではないAIについては積極的に利活用を進めるといった硬軟織り交ぜた対策も必要じゃないかなと思うんですが、この四段階のリスクベースアプローチ、これは、この後、馬淵澄夫委員からも質疑があるかもしれませんが、導入する検討は行われたのでしょうか。
○渡邊政府参考人 EUのAI法の四段階のリスクベースアプローチにつきましてお答えを申し上げます。
EUのAI法のアプローチにつきましては、法案の検討段階で参考にさせていただいております。EUのAI法は大きく二つのパートに分かれておりまして、一つが、この四つの段階のリスクに分けた規制部分でありまして、もう一つは、生成AIに関するマクロなといいますか、全体、まあEUの言葉では、生成AIとは言わず、ジェネラルパーパスAIというふうに呼んでおりますけれども、に関する包括的な規制、この二つのパートから成りますけれども。
その片方の四段階のものについて申し上げますと、まず、最上位のリスクにつきましては、許容できないリスクということで、そういったAIシステムは禁止というふうにされています。また、二段階目、これはハイリスクなAIシステムということになりますけれども、これを扱う事業者には基準適合義務が課されるというような規制だというふうに承知をしております。
一方で、我が国においても、EUで禁止をされておりますような、許容できないようなリスクを持つAIシステムにつきましては、日本の法令、刑法ですとか個人情報保護法等により規制をされるものというふうに考えております。
また、今の、二段階目のハイリスクにつきましては、例えばAIを用いた医療機器等が該当すると思いますけれども、これは我が国においても大臣承認とかがなければ使えないということになっておりまして、EUはAI法の規定でありまして、日本の場合はそれぞれの個別法ということかもしれませんけれども、ハイリスクなものに対して、リスクに応じて対応していくという考え方においては共通する部分があろうかというふうに思います。
もちろん細かく言うといろいろな違いはあるものの、これは、各国のこれまでの法体系ですとか歴史とかいろいろなものが背景にございますけれども、基本的な、リスクに対して対応していくという考え方については、EUと共通する部分があるというふうに考えております。
○橋本(慧)委員 御答弁をいただきました。
時間の関係で一つ飛ばさせていただいて、EUの対策についても、我が国との比較についても述べていただきましたが、じゃ、EUの一般データ保護規則、いわゆるGDPRについてです。
これは、データ主体に関する法的効果を発生させる、又はデータ主体に対して同様の重大な影響を及ぼすプロファイリング、これは個人の経済状況でありますとか健康でありますとか興味、関心、行動や位置情報とかの一定の個人情報の側面の評価のことだと思いますが、このプロファイリングには規制がかけられ、個人の権利が保障されていると認識をしています。
このように、意思決定がAIに操作されないように制度的な措置を講ずるべきだと考えますが、いかがでしょうか。
○渡邊政府参考人 お答え申し上げます。
EUのGDPR二十二条におきましては、これは個人データに関する法令でございますけれども、専ら自動化された取扱いに基づいた意思決定の対象とされない権利というのが規定されているものと承知しております。ちょっと、やや難しいんですけれども、平易に申し上げると、コンピュータープログラム等が人の評価をしてしまうというか、それは避けるべきであるというようなことが規定されているということでございます。
一方、日本におきましても、コンピューターのプログラムのアルゴリズムが提案する内容が違法な行為を助長するような場合、不適切な場合には、既存の現行法で規制がなされるものというふうに考えております。
このAI法案は、個別のリスクというよりは、むしろ、予想できない、いろいろな多様なリスクがあり得ると思いますので、そういったものに対応していく法律、法案ということでございまして、個別のリスクということではないんですけれども、何らかの規制を講じる場合には、一般論になってしまいますけれども、前提として、規制の対象範囲を明確にして、禁止すべき行為について、罰則をつけるという場合には誤解されないように明確に規定をしなければいけないということでございまして、リスクの検証ですとか、いろいろなことを精査していく必要があるというふうに考えております。
現時点では、迅速な対応ということも考えまして、現行法と現行法のガイドライン、そして今回の本法案におきまして、この法案の中でも、調査研究とか情報収集、実態把握をして迅速に対応していくというふうに考えておりますので、こういった対応でやっていきたいというふうに考えております。
○橋本(慧)委員 御答弁をいただきました。既存の現行法とか各業法での規制を行う、それが今回、日本のAI推進法においては大分キーになるというか、しっかり議論していくべきところかなと改めて感じました。
そうなると、個人情報についての質問に移らせていただきます。
AIが収集する学習データの中には、特定の個人を識別できる個人情報がやはり含まれている場合があると思いますが、あらかじめ本人の同意が得られていない個人情報をAIが収集した場合は、個人情報保護法に違反するのではないかというような議論とか懸念もあると思います。
個人情報保護法第三十五条に基づき、本人から例えばAI利用事業者に対して、本人の同意がなく収集された個人情報の消去というものを請求することはできるのでしょうか。お答えください。
○佐脇政府参考人 お答え申し上げます。
AIを利用する事業者が個人情報データベース等を使っておりましたら、個人情報保護法の規制対象であります個人情報取扱事業者に該当いたします。そのため、法律に基づきまして、一定の要件、例えば、不正な取得、不適正な利用ということがございますと、個人は、事業者に対しまして、AIの利用に際し使われている個人データから御自身の個人データの消去、利用停止を請求できる、そのような権利が設定されておりますので、それを御使用いただくことになろうかと思います。
○橋本(慧)委員 規制対象であると明確に御答弁をいただきました。
次の質疑にも関わってくることですが、規制対象であるから、請求でありますとか訴えを起こした場合、それは対応はできるということなんですが、やはり、膨大な情報の中で、日々本当に国民も忙しい中でそういったものに対応していけるかというところの実効性の疑問は残ります。
ディープフェイク対策についてです。
AIが悪用されるディープフェイクの事例が、本当に近年大きな社会問題となっています。具体的には、AIで合成された音声や動画を用いて有名人をかたった詐欺に悪用されたり、偽画像や偽動画を使った情報操作、そして世論の工作にも悪用されたりするといった事案が各国で相次いでいます。
また、例えば芸能人の顔に置き換えた性的動画のディープフェイクポルノ、芸能人だけじゃないんですけれども、国内外で確認をされまして、これについては、先日の内閣委員会で我が党の市來伴子議員も、本当にこれは大きな問題だということで議論をさせていただいたところでありますが、実在性などの定義、重要なやり取りがあったと思いますし、この件は、引き続いてしっかりと議論が必要だと思っています。被害者を生み出さない仕組みを、我々、党派を超えて議論を深めていかないといけないと思っております。
ディープフェイクポルノがもちろん言語道断なのは当然のことでありますが、そもそも、AI画像でありますとかAI動画を自動的に検知をして、このサイトはAIを利用していますといった分かりやすい表示があってもいいのではないかと思います。
例えば、NHKのニュースでは、これまでに入っているニュースをAIによる自動音声でお伝えしますというアナウンスがあって、実際にAI音声でニュースが読まれます。そのときには、テレビの画面に「AI自動音声でお伝えしています」という表示がありまして、これについては御覧になった方も多数いらっしゃると思います。
こういった、AIを利用していますといった分かりやすい表示をAI画像やAI動画にも義務づけるべきではないでしょうか。お願いします。
○城内国務大臣 お答えいたします。
ウェブサイト上の情報などがAIを用いて生成されているか否かを検知するための技術や、AIを用いているかどうかを表示すること自体、これは御指摘のとおり大変有用であると考えております。他方で、このような技術の導入やAI利用の表示を義務づけることは、まだ開発途上の技術でもございます。
なお、本法案に基づき整備する指針において、例えば、AIの利用の有無が分かりにくいために被害が生じそうな場合には、AIの利用を行っていることの表示を行うことを奨励することなどについてもしっかり検討してまいりたいと考えますが、いずれにしましても、橋本慧悟委員の御指摘は非常に有用なことだと思いますので、こういったこともしっかり踏まえて検討してまいる所存でございます。
○橋本(慧)委員 これからもしっかりと議論を進めていければなと思います。
続きまして、我々は政治家ですから、選挙におけるディープフェイク対策への実効性をどう確保するのかという観点でもお聞きしたいと思います。
昨年から特に、世界各国の選挙で生成AIを用いた偽情報も拡散をされたという事例が確認されています。
例えば、アメリカでは、前々回の大統領選でバイデン氏を支持した人気歌手のテイラー・スウィフトさんが、トランプが勝ったというような横断幕、旗を掲げる、そんな画像が拡散される、偽動画が作成されたりとか、パキスタンとかインドネシアで、収監されている元大統領とか既に亡くなった総理大臣、元大統領とかが投票を呼びかける動画とか演説動画が流れたりという事例があったようです。
この夏に我々も大きな選挙を控えておりますし、今後我が国でも、偽の画像でありますとか動画が作られて、有権者の判断がディープフェイクによって大きく揺さぶられるようなことが出てくるということも十分に考えられますが、選挙におけるディープフェイクへの対策の実効性をどう確保するのか、お考えをお聞かせください。
○城内国務大臣 お答えいたします。
選挙活動に関連するかどうかにかかわらず、内閣府といたしましては、ディープフェイクを含めた偽・誤情報についての対策を講じていくことは、橋本委員も御指摘のとおり、大変重要であり急務であると考えております。
具体的には、本案第十三条に基づきまして、国が国際的な規範の趣旨に即した指針、これを整備することとなっております。この国際的な規範の一つであります広島AIプロセスの国際指針では、偽情報、誤情報に係る対策といたしまして、AIが生成したコンテンツであることを識別できるよう、電子透かし等の技術を開発導入することなどが挙げられております。
これらを踏まえまして、指針の詳細は検討中ではあるものの、例えば、一つの例として、AI開発者や事業者による電子透かしや来歴管理等を導入すること、もう一つは、AI活用者による法令遵守を徹底することなどを指針に明記することを想定しております。
いずれにしましても、関係省庁とも連携しまして、既存の法令やガイドラインの遵守徹底、AI研究開発者、活用者等によるしっかりとした自主的取組の促進、新たな技術の開発導入など、総合的に対策を進めてまいる考えであります。
○橋本(慧)委員 内閣のお立場では選挙というものに特化してのお答えというのはなかなか難しいかなというのは推察します。いろいろ幅広く、選挙にかかわらず、指針について、広島AIプロセスに基づいてしっかりと今検討しているところだ、ガイドラインも策定をしていくということですが、やはり実効性、そういった方針とかガイドラインを出すというのは本当に大事なことだと思いますし、そのとおりに運用されて守られれば全く問題はありませんが、やはり実効性の部分がかなりこれから議題にもなっていくんじゃないかと個人的には思っています。実効ある取組に向けて議論を進めさせていただければと思います。
続きまして、本法案の施行後の見直し規定についてお聞きしたいと思います。
本法律案において、「政府は、人工知能関連技術の研究開発及び活用の推進に関する諸施策についての国際的動向その他の社会経済情勢の変化を勘案しつつ、この法律の施行の状況について検討を加え、必要があると認めるときは、その結果に基づいて所要の措置を講ずるもの」としています。附則の第二条にもございます。
この施行状況の見直しについて、例えば、もっと明確に踏み込んで、三年でありますとか五年見直しというような規定が具体的に明示されるべきだとも考えるのですが、これが明示されていません。これを是非とも設けるべきだと思いますが、大臣、簡潔に御答弁をお願いします。
○城内国務大臣 お答えします。
AIは、御案内のとおり技術の進展が極めて速い分野でございまして、今後、現時点で予測できないようなリスク、これが発生する可能性がございます。このため、AIの技術進展の動向をしっかり見極めながら、その時々の状況に応じて臨機応変に対応することが重要であります。
したがいまして、今般の法案においては、ですから、あえて見直し時期については、こういった観点から具体的な規定を設けないということになっております。
○橋本(慧)委員 時間が参りました。
不断の見直しを行っていくということでも受け止めましたが、是非ともここについても議論していきたいと思います。
本当にありがとうございました。
○大岡委員長 次に、おおたけりえ君。
○おおたけ委員 立憲民主党、おおたけりえでございます。
本日は、提出されたAI法案について、十六条、十五条、五条を中心に幾つか伺っていきたいと思っております。
まず、第十六条、調査研究等について。「国は、国内外の人工知能関連技術の研究開発及び活用の動向に関する情報の収集、不正な目的又は不適切な方法による人工知能関連技術の研究開発又は活用に伴って国民の権利利益の侵害が生じた事案の分析及びそれに基づく対策の検討その他の人工知能関連技術の研究開発及び活用の推進に資する調査及び研究を行い、その結果に基づいて、研究開発機関、活用事業者その他の者に対する指導、助言、情報の提供その他の必要な措置を講ずるものとする。」という条文です。
まず、現在、国内のAI開発会社は、NEC、NTT、富士通、そのほかありますが、それらに対し具体的にどのような情報を収集しようとされているのか、また、国外の会社については同様の情報を求めていくのか、伺います。
○徳増政府参考人 お答えいたします。
どの企業から情報を収集するか、具体的な企業名は未定でありますけれども、一つの考え方として、汎用目的の高性能な生成AI等であってユーザー数が多いものにつきましては、国民への影響も大きいことから、情報収集の対象としたいと考えております。
また、情報収集の内容につきましては、広島AIプロセスの国際指針の項目を参考に、AIライフサイクル全体にわたるリスクを特定し、軽減するために、AIを市場投入する前にどのような安全性向上のための措置を講じているかであるとか、AIを市場に投入後に、AIの脆弱性、悪用されたインシデント等を特定をし、リスクを緩和するためにどのような措置を講じているのかといったような項目について情報収集したいと考えております。
○おおたけ委員 提出の方法は、書面か、対面のヒアリングですとか、どういった方法でされるのか。また、国外の会社についても同様ということでよろしいんですか。お願いします。
○徳増政府参考人 情報の収集の仕方は様々あると思っておりますので、これは今後の検討とさせていただければと思います。
他方で、もう一点の、海外、国外の企業につきましても、日本で使われているAIの多くが国外製であることから、国外のメジャーなAI開発者に対しても、同様に情報収集を行ってまいりたいと考えております。
○おおたけ委員 「国民の権利利益の侵害が生じた事案の分析及びそれに基づく対策の検討」と条文の中にございますが、これはどのようなものを想定して、どのように対応するのか、伺います。
○徳増政府参考人 AIの不適切な使用等による国民の権利利益の侵害につきましては予測が難しいところではありますけれども、例えばでありますが、あるAIに入力、質問された個人情報等が搾取をされてしまう、あるAIが偏見、差別的な情報を執拗に出力し続けるといった事案が想定をされます。
このような事案に対して、既存の法令で対処できない場合には、関係省庁と連携をして、必要に応じて専門家の協力も得ながら、事案の原因の分析であるとか改善策の検討などを行うことを考えております。
○おおたけ委員 改善策の検討、ここがすごく大事ではないかと思っております。
調査研究の結果に基づく指導、助言、情報の提供その他の必要な措置と条文にございますが、これはどのようなものを指してみえるのか、伺います。
○徳増政府参考人 お答えいたします。
悪質なAIの開発、活用事案であって、既存法令による対応が難しく、かつ放置をすると被害が生じる、あるいは増大する可能性があると判断される場合、国が事業者に対する指導や国民に対する情報提供などを講じることなどを考えております。
調査の結果を公表、国民への情報提供をする際に、具体的に問題となっている種類のAIやその実名などを公表するケースもあると考えておりまして、AIの適正な開発、活用に向けて一定の抑止力が働くと考えているところであります。
○おおたけ委員 実名を公表まで考えているということ、理解をいたしました。
先ほど橋本議員が取り上げられました、内閣府のAI戦略会議が二〇二五年二月四日に発表された中間取りまとめの中の意識調査の中で、AIには規制が必要だと思うと答えた人が、日本で七七%、そして、政府に求めたいことは、AIの悪用や犯罪に対する法的対策の強化が六六%でトップでした。
今回の法律が施行されたら、政府として、これまでと違ってどのような対応をできるようになるのか。先ほど我が党の橋本議員が、質疑の中でいろいろ出てまいりましたけれども、さらに、AIにまつわる課題と認識されている、一、誤情報、二、ディープフェイク、三、違法コンテンツ、四、有害コンテンツ、五、バイアス、六、著作権に関連した六つのケースについて伺っていきたいと思います。
まず一つ目、誤情報。
生成AIを検索エンジン代わりに利用し、企業等に関する誤情報が表示され、その誤った情報を基にSNSなどで発信して、他の多くの人々の様々な意思決定を誤った方向に導いた事例についてはどう対応できるか、伺います。
○徳増政府参考人 委員御指摘の事例について、政府としては、既存の法令、ガイドライン等も活用して対処していくということでありますけれども、御指摘の趣旨が、今回のAI法案によって対応がどう変わるのかといった変化を尋ねているという理解の下、本法案によって変わると考えられる部分に絞って具体的にお答えをさせていただきます。
本法案に基づき、国は、国際規範に沿って指針を整備をいたしますが、その指針の中で、AI開発者による安全性向上について規定する予定であります。その中には、誤情報を減らすための取組も当然含まれると考えておりまして、具体的にどういう対策を行うかは事業者によって異なりますが、例えば、生成AIが企業等の情報を出力する際に、その根拠となった文献のURLを表示する等の対策が考えられます。また、誤情報の出力について、AI提供者が情報を収集し、開発者に共有をし、対策を講じることも考えられる次第です。
このような対策によって、委員御指摘のような事案を、発生してからの対応だけでなく、事前に予防、抑止、抑制をすることも考えてまいります。
○おおたけ委員 事前に予防、抑止、本当に大事だと思っております。
二つ目、ディープフェイク。
画面の端に日テレのロゴをつけて、あたかも日本テレビのニュース番組で首相が話しているかのようなディープフェイク画像が出て、その発信した情報が株価の暴落などの影響を及ぼしたという問題についてどう対応できるのか、伺います。
○徳増政府参考人 お答えいたします。
本法案に基づき国が整備する指針の中では、AI開発者による安全性向上について規定する予定です。その中には、偽情報を減らすための取組も含まれると考えておりまして、具体的な対策は事業者によって異なるとは思いますけれども、例えば、画像生成AIに関して国家元首の偽動画などが容易に作成されないような工夫が考えられます。また、本法案では、研究開発の推進も基本的な施策として掲げておりまして、偽情報対策に関する技術開発などの技術面の取組も進めたいと考えています。
このような対策によって、委員御指摘のような事案を発生前に予防して、抑制することを考えていきたいと考えています。
○おおたけ委員 それでは、三つ目の違法コンテンツについて。
家族の声のディープフェイクを使ったオレオレ詐欺の被害に遭ったという問題についてどう対応できるのか、伺います。
○徳増政府参考人 お答えいたします。
本法案第十五条では、国が国民に対して、AIに関する教育、学習の振興、広報活動を行うこととされています。また、既存法令やガイドラインで対応しつつ、本法案第十六条に規定された情報収集や、調査、指導、助言、情報提供といった取組を活用して、関係省庁と連携の上、適切に対処することが考えられると思っております。
このような取組により、合成音声を生成するAIを用いたオレオレ詐欺等のリスクに対応するとともに、国民に対して注意喚起を行い、犯罪を防止することが考えられます。
以上でございます。
○おおたけ委員 次の、四つ目、有害コンテンツ。
先日、我が党の市來議員の質疑では、実在する児童での児童ポルノ画像を生成したら違法との答弁でございましたが、今日は、実在しない児童のデータでフェイク児童ポルノ画像を生成し、広く頒布し、社会に児童ポルノ画像があふれるなど、悪影響を与えた場合についての問題。これは現在、児童ポルノ法で処罰できず問題となっておりますが、どう対応できるのか、伺います。
○徳増政府参考人 お答えいたします。
本法律案に基づき国が整備する指針において、例えば、AI生成物であることを識別可能とするため、AI開発者が電子透かしの機能をAIに導入することが考えられます。また、全てのAI関係者に対して法令遵守を徹底をして、既存法令の違反等の事案の防止を図ってまいりたいと存じます。
○おおたけ委員 既存法令の違反はそうなんですけれども、今回の場合は既存法令だと対処できない問題なんですよ。それについてはどうお考えですか。
○徳増政府参考人 重ねてになりますけれども、今回の法案で新たに加える部分としては、指針の中において、AIの生成物であることを識別可能とするために、AI開発者が電子透かし等の機能をAIに導入することが考えられますので、新たな技術等の活用を図りながら、それを指針の中で明確にして対応を図っていきたいといったようなことであります。
○おおたけ委員 この事案については、AIであるということが識別されれば解決する問題ではないような気がいたしますので、是非ともその辺りも検討していただきたいと思っております。
次、五番目のバイアス。
生成AIが、貧しい黒人は学校に行かず薬物の密売人になるというような、バイアスのかかったひどい文章を生成した場合の生成AIサービス提供者の責任等に対し、どう対応できるか、伺います。
○徳増政府参考人 お答えいたします。
本法案に基づき国が整備する指針の中では、AI開発者による安全性向上について規定する予定です。その中には、偏見、差別情報の出力を減らすための取組も含まれると考えておりまして、具体的な対策は事業者によって異なるとは思いますけれども、例えば、AI開発段階でリスクへの対策を攻撃者の視点から評価をするレッドチーミングであるとか、その他の各種評価ツールを使って不適切な出力の抑止を図る取組が考えられます。
このような対策によって、委員御指摘のような事案を予防し、抑制することも考えてまいりたいと考えています。
○おおたけ委員 次に、六番目の著作権。
生成したコンテンツが既存の著作物に類似している場合、どう対応できるのか、伺います。
○徳増政府参考人 お答えいたします。
本法案に基づき国が整備をします指針において、例えば、AI生成物であることを識別可能とするため、AI開発者が電子透かしの機能をAIに導入することが一つ考えられます。それからまた、全てのAI関係者に対して法令遵守を徹底をして、既存法令、これは著作権法等になると思いますけれども、そういったものの違反の事案の防止を図ってまいりたいと存じます。
○おおたけ委員 確認ですけれども、こういった、六つ例を挙げさせていただきましたが、国民の権利利益の侵害が生じた事案についての対策の検討は、AI戦略本部の下に設置をされる有識者等を含めた実務者の会議体等で、個別法の改正など、具体的な改善策を検討されるのでしょうか。
やはり被害になってからじゃ遅いという思いがありますので、先ほどおっしゃっていただいたみたいに、事前に抑止するということがすごく大事だと思っております。ですので、実務者部隊、そこは、どのような会議体で改善策が検討されるお考えなのか、伺います。
○徳増政府参考人 お答えいたします。
ただいまの御質問については、基本的にはAI戦略本部の方で様々なことを決定をしていきますけれども、その決定に当たっては、事前に幅広く専門家の意見、現場の状況等も伺いながら決めていきたいと考えておりますので、専門家の知見をおかりしつつ、最終的にはAI戦略本部の方で決定をしていくということであります。
○おおたけ委員 ありがとうございます。
専門家も交えた、しっかり検討された中で、AI戦略本部で決めていくということを理解しました。個別具体的な被害の事案にしっかりと対応できるようにお願いしたいと思っております。
次に、教育の振興、第十五条について。「国は、国民が広く人工知能関連技術に対する理解と関心を深めるよう、人工知能関連技術に関する教育及び学習の振興、広報活動の充実その他の必要な施策を講ずるものとする。」と条文にございます。
まず、今回の法案の第十五条、教育の振興は、具体的に誰に対する、どういったものを想定してみえるのか、伺います。
○徳増政府参考人 お答えいたします。
我々が日常使用しているパソコン、スマホにもAIアプリケーションが標準装備されつつあり、近い将来、全ての国民が直接的、間接的にAIを使うようになる可能性があると認識をしております。
全ての国民にAIを適正に御活用いただくためには、初等中等教育、一般国民、企業などの様々な場面で、それぞれの立場に合わせて、AIの特性やリスク等について分かりやすい広報活動や教育に対する支援などを行っていく必要があると考えております。
○おおたけ委員 初等中等教育からということがありました。次に、二つ目は、子供たちの教育について伺いたいと思います。
子供たちは、日常的にネットの世界と接しております。こども家庭庁が令和六年二月に発表しました令和五年のインターネット利用環境実態調査によりますと、インターネットを利用すると回答した青少年の平均利用時間は約四時間五十七分、十歳以上の小学生は約三時間四十六分、中学生は約四時間四十二分、高校生は約六時間十四分。そして、何と、七時間以上利用すると答えた割合は、十歳以上の小学生は八・九%、中学生一七・二%、高校生三三・〇%です。また、調査結果にはありませんが、不登校の子供の中には、一日中インターネットを利用しているという子供もおります。
子供たちは、特に教えていなくても、ネット上の情報からどんどん吸収して、AIを使いこなしていってしまっております。インターネット上の情報について、大人でも、AIが作った情報かそうでないか、なかなか区別がつかないのですから、子供たちはなおさらです。親世代もAIについての知識には差があり、子供に、うそが交じっているかもしれないから気をつけてねと教えるぐらいはできても、子供たちがその都度判断するために十分なほどに教えられるかは分かりません。
ネット上の偽・誤情報に惑わされ、子供たちはもはや誰を何を信じていいのか分からなくなってしまうのではないかと危惧をいたします。また、AIを作っていくような、そういったソフトなどもネット上にあると伺っております。どんどん作っていく、そういった子もいるんじゃないかと思います。
今回、AI新法を制定するに当たり、欧州ほど強い規制は課さずに、国内のイノベーションにつなげようとされております。強い規制をかけないという選択をするのであれば、一方で、きちんとAIに対処できる能力を身につけるサポートが重要です。
また、目先の対策に加え、これからの日本の国際競争力を強化するため、二十年、三十年後を見越した教育も必要です。小学校の段階から学べるAIリテラシー向上のための科目とプログラムをつくり、小学生から高校生までが毎週一こま学べるぐらいの頻度で教育をすべきではないかと思います。
また、それぞれの進度に合わせて学習できるような、一人一台配られているタブレットに搭載できるAIリテラシーアプリを作成して、インターネットに接することの多い不登校児童生徒を含めた全ての子供たちが学べる環境を整えてはどうかと思います。
そこで、子供たちへの教育の、一般論でない具体策をきちんとその後の予算化に結びつけるために、今回のAI基本計画で位置づけてほしいと思いますが、どうお考えか、伺います。
○徳増政府参考人 お答えいたします。
AIに関する教育関連の施策としてこれまで行っていることは、例えば、初等中等教育段階における生成AIの利活用に関するガイドラインの策定、生成AIパイロット校を選定をして、学校における具体的なAI利活用事例の創出などの取組を進めてきたところでありまして、初等教育段階も含めたAIの利活用等を含む情報活用能力の育成は重要であると考えています。
今般のAI法案第十五条においては、国民が広くAI関連技術に対する理解と関心を深めるよう、AI関連技術に関する教育及び学習の振興、広報活動の充実等必要な施策を講じるという旨を規定をしているところです。
AI教育や活用を通じ、AIに関する正しい知識を学習、習得をし、実践することで、AIに関する理解と関心が深まると考えておりまして、本法案が成立した暁には、関係省庁と連携をして、AI教育に係る取組を一層充実してまいりたいと存じております。
○おおたけ委員 ありがとうございます。
AI基本計画に位置づけるということは、それはしていただけるということでよろしいんでしょうか。お願いします。
○徳増政府参考人 お答えいたします。
基本計画は今現在検討中でありますので、最終的にはまだ確たるものは言えないところはありますけれども、基本計画の策定においては、人材育成は極めて重要な要素でありますので、そういったものは是非検討していきたいというふうに考えております。
○おおたけ委員 次に、一般への教育について伺ってまいります。
先ほども挙げました内閣府AI戦略会議中間取りまとめの意識調査では、生成AIのイメージは真実と誤情報が入り交じっているとの回答が三〇%と一番多かったそうです。どのようになれば生成AIを使いたいと思うかの問いには、真実と偽情報を峻別できるようになったらが二二%で、一番多いうちの一つでございました。国民が偽・誤情報に惑わされずに意思決定できるようにするため、一般の方々のリテラシー向上にはどう取り組まれるのか、伺います。
○徳増政府参考人 お答えいたします。
一般の国民もAIユーザーになる可能性が高く、一般国民のリテラシーの向上も、委員御指摘のとおり極めて重要であります。
国としては、リテラシー向上に資するような分かりやすいコンテンツの作成や広報活動などを進めてまいりたいと存じます。
○おおたけ委員 コンテンツの作成などしてくださるということを理解いたしました。
次に、職業訓練等の取組について伺ってまいります。
雇用への影響、大変大きいものがあると考えております。国際労働機関、ILOによりますと、職業別では、秘書や銀行の窓口、データ入力、会計や簿記など、事務支援の業務がAIの影響を受けるリスクが最も大きく、高所得国において自動化の影響を受けやすい女性労働者は七・八%、約二千百万人、男性労働者は二・九%、約九百万人と試算をされました。
生成AIを使いこなすことを前提とした職業が増えていくことが予測される中で、職業訓練等に生成AIに関する教育を組み込んでいく必要があると考えます。大人へのリスキリングプログラムについて基本計画に入れておくべきだと思いますが、お考えを伺います。
○徳増政府参考人 AIの研究開発、活用の進展や、AIによる新たな産業の創出に伴い、AIエンジニアを始めとするAI関連人材のニーズは高まっている状況にあると認識をしております。このため、AI人材の育成、確保の取組を進めるとともに、リスキリングのための施策に取り組んでいくことは非常に重要であると考えています。
政府では、これまで、DX人材向けのデジタルスキル標準について、生成AIの登場や進化といった状況を踏まえて七月に改訂を行うとともに、職業訓練等におけるAIを含むデジタル人材の育成などを進めてきているところです。
今般の法律案第十四条において、国が地方公共団体、研究開発機関及び活用事業者と密接な連携を図りながら、AI関連技術の基礎研究から活用に至るまでの各段階において必要となる専門的かつ幅広い知識を有する多様な分野の人材の確保、養成及び資質の向上に必要な施策を講じると規定をしております。
引き続き、関係省庁また民間企業等とも連携をしながら、AI人材の確保に向けたリスキリングの関連の施策、充実をしてまいりたいと存じます。
○おおたけ委員 いろいろな分野に関わってくることだと思いますので、是非ともお願いしたいと思います。
次に、第五条、地方自治体の責務について伺っていきたいと思います。
地方自治体は、「基本理念にのっとり、人工知能関連技術の研究開発及び活用の推進に関し、国との適切な役割分担の下、地方公共団体が実施すべき施策として、その地方公共団体の区域の特性を生かした自主的な施策を策定し、及び実施する責務を有する。」と条文にございます。
六条など他の条文では「努めるものとする。」という条文になっているのに対し、地方自治体に対しては「責務」となっている理由はなぜなのか。また、「特性を生かした自主的な施策を策定」と書いてありますけれども、どんなことを想定されているのか、伺います。
○徳増政府参考人 お答えいたします。
地方では人口減少に悩むところも多く、そうした中で、地方公共団体における行政事務の効率化や地域における課題解決にAIを活用することが期待をされております。
こうした背景等もある中、地方公共団体に対し、国との適切な役割分担の下、区域の特性を生かした自主的な施策の策定、実施をする責務というのを規定しているところであります。
区域の特性を生かした自主的な施策としては、例えば、外国人が多く来日をする観光地では、案内等に各言語に対応したAIの活用などが考えられる次第であります。
○おおたけ委員 ありがとうございます。
地方創生などに生かしていく、そういったことの視点も必要だということを理解いたしました。
地方自治体では、DXに対応するデジタル人材の確保や育成に苦労している現状がございます。今回のAIについては、地方自治体の情報システム化等、情報系の一部の部署だけにとどまらず、広く自治体職員に知識を持ってもらうことが新たなイノベーションにつながると思っております。
そこで、地方自治体に対するAI研修はどのように考えてみえるのか、伺います。
○徳増政府参考人 お答えいたします。
本法律案では、AIが地方公共団体においても活用されることを期待をし、地方公共団体においても責務を規定している次第であります。
これまでにも、国が、生成AIも含めたDX推進の実務の中核を担う人材に対して求められるスキル等を身につける研修等を、市町村等を対象にして実施をしてきているところであります。
また、広島AIプロセス国際指針においても、AIに関わる者におけるデジタルリテラシーの向上が盛り込まれております。
政府としましても、引き続き、地方公共団体においてもAI活用等が促進されるよう、政府全体でAI基本計画に基づく施策の推進を図ってまいりたく存じます。
○おおたけ委員 それでは、最後に、今回の法改正は基本法の位置づけであり、そして、この法改正だけでは国民の権利利益を守り切れないということは言うまでもないと思っております。
それぞれAIにまつわる被害例に的確に対応できるように、基本計画やAI戦略本部の機能を十分に生かして、刑法や児童ポルノ法等の各法の法改正も含めてスピーディーな対応をしていただいて、AIと人間との共存をよりよい形で図っていただきたいと思いますが、城内大臣のお考えを伺います。
○城内国務大臣 おおたけ委員にお答えいたします。
本法律案は、イノベーションの促進とリスクの対応の両立を図るための、日本で初めてのAIに特化した法律案でございます。
まずは、政府として、昨今のAIをめぐる技術革新やこれに生じている様々なリスクへ柔軟かつ迅速に対応するために、内閣に、司令塔機能を担うAI戦略本部を設置し、体制の強化を図ることとしております。
さらに、AI基本計画によりまして基本的な方針をお示しし、各府省庁が実施するAI関連施策の調和を図ることによって、政府全体としてAI政策を総合的かつ計画的に推進していきたいと考えております。
本法案が成立した暁には、AI戦略本部、本部長は総理大臣でありますので、その強いリーダーシップの下で、また、その事務局を担う内閣府が司令塔機能をしっかりと発揮し、全ての関係省庁との間で密な情報共有、調整を進めながら取り組んでまいります。
国民の権利と利益の侵害という御指摘がございましたが、そうしたことが生じないように、そして、仮に生じた場合も、今日御議論されました第十六条というのがございますので、必要な措置、情報収集、調査研究、指導、助言その他の必要な措置をしっかり講ずることによって対応することとなっております。
いずれにしましても、政府全体として、一層的確かつ迅速にイノベーションの促進とリスクの対応を図るとともに、世界で最もAIを研究開発し、活用しやすいものとすべく取り組んでまいる考えであります。
○おおたけ委員 以上で終わります。ありがとうございました。
○大岡委員長 次に、馬淵澄夫君。
○馬淵委員 馬淵でございます。
質疑をさせていただきます。
今日は、城内大臣、よろしくお願いいたします。当選同期ということでありますので、是非大臣の政治家としての発言なり答弁をいただきたいと思っております。
まず、このAI法案でありますが、当然、積極的にこうした推進を行うべきという認識は共有するものであります。ただ一方で、同時に、配慮しなければならない諸点があるということで、これにつきまして、この法案、さらにはこの立法プロセスにおいての様々な考慮がどのようになされたかということについて伺っていきたいと思います。
まず、AIと、そしてこの法律、今国会の本法案、具体的に検討するとすれば、いわゆるデジタルプラットフォーマー、これは事業者と呼んだりしますが、DPF、デジタルプラットフォーマーと法規制との関係というのは極めて重要だというふうに考えております。このデジタルプラットフォーマーは、当然ながら、経済合理性を追求する、最優先するというのは当然のことであります。そして、この経済合理性を支えるのがビジネスモデルですね。
このビジネスモデルについては、いわゆるアテンションエコノミーという、余り聞き慣れない言葉であり、関心経済などと昔言われたそうでありますが、つまり、DPFの事業者というのは、市場において一人一人の顧客に対して、時間そして粘着度、これをどれだけ獲得するかということが求められる経済ビジネスモデルだと言われているわけでありまして、具体的には、ページビューや、あるいはインプレッション、そして滞在時間などといった指標があります。こうしたアテンションの獲得を競争していくという状況になるわけですが、一方で、アテンションを引くために、刺激的なあるいは扇情的な情報がちまたにあふれ出てしまう。
こういう中で、信頼性や真実性が十分に確保できていない、こうした情報があふれ返ってしまうということについて、このビジネスモデルが、我が国において、日本社会において、いわゆる人権あるいは民主主義といった普遍的な価値をどう害してしまうのか、どう守れるのかというのが重要な課題だというふうに考えています。
そこで大臣にお尋ねをしたいんですが、本法案の中で、提出する上において、今申し上げたようなアテンションエコノミーという現状に対する認識はどのようにお持ちだったのか。そして、このアテンションエコノミーを中心とするDPF、デジタルプラットフォーマーのビジネスモデルに対するリスク、これをどのように考え、受け止め、また分析をされてきたか。これについて大臣からお答えをいただきたいと思います。
○城内国務大臣 馬淵委員にお答えいたします。
アテンションエコノミー、まさに御指摘のとおり、今、情報過多の社会において、情報のクオリティー、質よりも、むしろいかに耳目というか注目を集めるかということに価値を置くという考え方だというふうに理解しております。
馬淵委員御指摘のように、SNSを通じた不適切な情報の発信につきましては、関係省庁とも連携いたしまして、既存の法令及び各種ガイドラインがございますので、その遵守徹底や、AI研究開発者や活用者等によるまずはしっかりとした自主的取組の促進、そして新たな技術の開発導入など、総合的に対策を進めていくことが重要だというふうに考えております。
その上で、今般提出しておりますAI法案、ここにおいては、御指摘のような不適切な出力がされないように、AIの研究開発及び活用の適正性を確保するための指針、これを国がしっかり整備することというふうになっております。
さらに、本法案では、国内外のAIの研究開発、活用の動向に関する情報をしっかりと収集する、さらには、国民の権利利益の侵害が生じた事案については分析、対策の検討をし、その他の調査、そして、その調査結果を踏まえた活用事業者等への指導、助言、情報の提供等、これを国が行うこととされております。
また、活用事業者に対しましては、指針の遵守を始めとする、国が実施する施策にしっかりと協力するよう責務を定めているところでございます。
こうした様々な取組や仕組みを通じて、馬淵委員御指摘のような、リスクに対する対応をしっかりと高めてまいるというふうに考えております。
○馬淵委員 ありがとうございます。
今、城内大臣からの御説明をいただきましたが、この法案の中の肝の部分ですね。いわゆる理念法ですから、さきのサイバー法のような膨大な法律とはまたちょっと違うんですが、ここの肝の部分というのは、端的に申せば、後ほどまた触れますが、国民の責務もありますが、事業者の責務、七条、そして適正性の確保、いわゆるガイドラインですよね、これが十三条、さらには、調査研究と称した、ある意味ガイドラインに適しているか否かによって指導と助言等がなされる、この三つの条文が今回のAI法の私は肝の部分だと思っています。
そうした中で、この法案を作っていく上において、世界的なAIの趨勢というのを見ますと、私は大きく三つのモデルがあるかなというふうに、そのように受け止めております。
一つは、このDPF事業者が、いわゆるアメリカ型と呼ばれるもので、いわゆるデジタル放任主義。ある意味、ほとんど規制も何もしない。特に、トランプ大統領が就任されて、ここに関しては相当自由に闊達に、当然ながら、フロントランナーであるアメリカですから、そういった思いが強くなるのは致し方ないところかもしれません。こうしたアメリカ型、米国型のデジタル放任主義。そして一方で、これは国名はあえて言いませんが、国家主義体制、こうした国の、これはデジタル権威主義と呼ばれるもの。本当に、国家が権威を持って体制をがちっと固めてしまうというデジタル権威主義。そして三つ目が、これはEUです、いわゆるAI技術というものがデジタルプラットフォーマーにとって適切に関与しているのかということで、適切性の確認ということを強く打ち出している、デジタル立憲主義と呼ばれる。この三つの思想、ビジネスモデルが私はあるというふうに理解をしています。
そこで大臣にお尋ねしたいんですが、先ほど、現状認識と、そしてこの法案の肝の部分、三つの条文のところをお答えいただきましたが、我が国のこのAI法、理念法と言うべきこの法律については、権威主義のAI主義ではないのは間違いないでしょう。となると、アメリカ型の放任、いわゆるデジタル放任主義なのか、それともヨーロッパ型のデジタル立憲主義なのか。あるいは、それ以外の第三の道を目指そうとしているのか。これについては、具体的に、端的にで結構ですが、大臣、どのようにお考えでしょうか。
○城内国務大臣 お答えします。
馬淵委員御指摘のとおり、米国のようないわゆるデジタル自由放任主義的なアプローチ、さらには、いわゆるデジタル権威主義的なアプローチ、三つ目は、EUのように法規制があるデジタル立憲主義的なアプローチ。諸外国の制度的対応につきましては、私自身も馬淵委員と同じような認識でございますが、そうした中で、本法案が目指す日本の制度は、実は諸外国とはまた異なるものであって、政府による監視や検閲を行ったり、あるいは制裁金を科す等の規制的な規制法ではなく、また反対に、完全に自由に放任主義だということでもないんですね。
我が国は、AIの研究開発及び活用の促進が極めて重要であるという認識にまず立って、イノベーションの促進、そしてリスク対応もしっかりやる、この両立を図るために、過剰な規制は避けつつ必要なリスク対策はしっかりと講じる、こういう考えの下で今般の法案を提出させていただいております。
○馬淵委員 いわゆるアメリカ型のデジタル放任主義でもなければ、デジタル立憲主義でもない。第三の道、我が国固有の道を歩もうという、かなり苦労した部分があったということだと、そう理解をします。
その上で、令和六年五月の、AI制度に関する考え方、戦略チーム。ここで、我が国の在り方というのが端的に示されています。
これを拝見しますと、政府が出したこの中には、AI事業者ガイドラインでは、AIがもたらす社会的リスクの低減を図るとともに、AIのイノベーションと活用を促進していくための関係者による自主的な取組を促した非拘束的なソフトローによって目的達成に導くゴールベースの考え方を取っている、このように書かれています。そしてまた一方で、我が国はソフトローによる対応を中心に行ってきたが、一方、刑法、個人情報保護法など、既存の法律ですね、こういったものがAIか否かにかかわらず適用される法律があるので、今回、欧米のような大規模あるいはリスクの高いAI等に適用されるハードローはこれは存在しない、こういうようなことがこのAI制度に関する考え方の、戦略チームでまとめられています。
確かに、我が国においては、こうした方向性を詰めていくということで今日までいろいろな形で取り組まれてきました。イギリスが二〇二三年十月に、そしてその次にはアメリカが、様々な研究を行うということでつくってきた、いわゆる日本版でいうとAIセーフティ・インスティテュート。これは二〇二四年二月、昨年ですね、世界でイギリス、アメリカの次に、三番目にこれが設立された。独立行政法人の情報処理推進機構に設置をされました。英米の機関とともに、安全性確保のための実務的なガイドラインや評価手法の検討、各種の技術的な調査研究などを行っているとされています。
そこで、大臣に改めて再度お伺いをしたいんですが、日本のAIに対する規制というのは、いわゆるソフトローによってということであり、また、国家や自治体などが定めた法律や条例などの法令で強制力を持つ規制、ハードローによるものではない、このように考えられるわけでありますが、AI法の基本理念も、今申し上げたように、考え方にはそのように書いてありますが、改めての確認です。いかがでしょうか。
○城内国務大臣 AIの研究開発及び活用が諸外国に比べて後れを取っている中で、AIのイノベーション促進とリスクの対応の両面を図るためには、やはりリスク対応に関して、過剰な規制は回避しつつ、必要な対策を講じる必要がある。先ほど述べたように、こういう認識に立っております。
これを踏まえまして、我が国におきましては、これまでも既存の法令、そしてガイドライン等のソフトロー、これを適切に組み合わせて様々なリスクに対応してまいりましたが、本法案が成立した後においても、事業者の自主性を尊重するという考え方には変わりはございません。
その上で、本法案においては、AI開発者、利用者が遵守すべき事項等を含む指針の整備のほか、悪質な事案に対する調査とその結果に基づく指導、助言等を国が行うことを十六条で明確にしております。これにより、顕在化するリスクに対して、更により適切かつ迅速に対応できるというふうに考えております。
○馬淵委員 イノベーションを阻害するということを多分一番に心配されたんだろうなというのは、これは私が推測するところです。
しかし一方で、やはりAIによる様々な影響というのは相当大きいものがある。先ほど来申し上げてきたEUのAI法、これはなかなか厳しくチェックをしていますね。先ほど橋本議員も質問でされました。橋本議員は、EUにおけるリスクベースアプローチ、これについて検討されましたかという質問でありましたが、検討したか否かということについては、検討されたという御答弁をいただいていましたが、採用しなかったわけですよね、最終的には。
EUの場合は、厳しい制裁も加わっています。三千五百万ユーロという大変な制裁金ですね。三千五百万ユーロ、約五十七億円、若しくは全世界売上高の七%、いずれかの高い方を上限として制裁を科すとなっているんです。これは本当に相当厳しい制裁措置です。
今回の我が国のこの法案には全くそういったものは含まれておりませんが、改めて大臣、端的にお答えいただきたいんですが、これは検討したか否かではない。私が伺いたいのは、このリスクベースアプローチを取らなかった理由。私の元では内閣府の皆さん方が様々説明に来られましたが、私が一番伺っている中で象徴的だなと思ったのは、やはりイノベーションの阻害になるということを強くおっしゃっていたようなんですが、ここは大臣、端的にどのようにお考えですか。
○城内国務大臣 御指摘のとおり、EUのAI法では、AIのリスクに基づきまして、四つのランク、許容できないリスクが一番上ですが、ハイリスク、次に、三番目が限定的なリスク、四番目が最小限のリスクというふうに、四つのランクに分けられて、リスクに応じた遵守事項を定めております。
その上で、EUと日本の現行制度を比較すると、罰則の有無等の強度は異なるものの、実は共通部分はあるものと認識しております。例えば、EUが禁止する市民の権利を脅かすAIは、日本においても刑法あるいは個人情報保護法等によりしっかりと規制をされているわけでございます。また、EUが適合性評価を義務づけております重要インフラ等に関するAIは、日本においても個別の、先ほども冒頭でも述べましたけれども、薬機法とか、あるいは自動車関連の法案もありますけれども、そういった個別の業法等の下で必要に応じて基準適合義務等が課されております。
いずれにしましても、国によって法体系とかあるいは歴史や文化が異なるため、各国それぞれの制度というのは異なっておりまして、我が国においては、こうした現行の制度に加えまして、本法案によって、これまで以上に柔軟かつ適切に、より適切にリスクへの対応を行うとともに、より安全、安心なAIの開発を進めていくことができる、そのように認識しております。
○馬淵委員 既存法によるということを繰り返しおっしゃっているんですが、本当にそれで十分な対応ができるのかということが気になるわけであります。
そして、先ほど来、質疑者の中でも繰り返しあった、AIというのは本当に進捗が、進歩が著しいですから、予想もできないような、予測できないような事態も発生し得るということであります。
既存法での対応が十分であるか否かということについては、全く想定できない部分もあるとは思うんですが、その部分が、附則の二条で書かれているように、将来予見できないような事態が起きた場合には、速やかに対応するべく、まあ、法的措置になるんでしょう。附則の二条を見ますと、検討事項で出ていますが、これは、変化を勘案しつつ、所要の措置を講ずるということでありますから、これによって、既存法で対応できないような状況、つまり、この法案ではちょっと甘いんじゃないかと、私はそこは若干心配をしている点ではあるんですが、この附則の二条によって読み込めるんだろうなというふうに思っておりますが。
大臣、改めて、このリスクベースアプローチを取らなかった理由というのは、先ほどのお話しいただきました部分があると思うんですが、やはりイノベーションの阻害にならないように、そして既存法で対応できるんだということでありますけれども、この附則の二条によって、いざというときには対応するんだということ、これを確認で御答弁いただきたいと思います。
○城内国務大臣 AIは技術変化が大変速くて、現在では顕在化していないリスクが法律の施行後に顕在化する場合、これも想定され得るわけであります。こうした場合において、法制上の措置の在り方を含めて必要な検討を行い、その結果に基づき所要の措置を行うことができるよう、附則の第二条を置くこととしたものでございます。
今後とも、関連する国際的動向とか、あるいは社会経済情勢の変化を含め、法律の施行状況を継続的に注視して、将来的には、その時々の状況を踏まえて適切な対応をしていくということはあり得るというふうに考えております。
○馬淵委員 附則の二条は、そのような実害が発生したときに発動されるんだろうなとは思うんですが、しかし一方で、人権侵害や民主主義のプロセスを毀損するような、これは実害が起きてからでは遅いんですよね。その意味で、我が国のAI法が民主主義のプロセスやあるいは憲法上の価値をどう担保していくのかということについて、少しお尋ねをしたいと思います。
先ほど選挙についてのお話はありましたが、これは城内大臣、我が党の梅谷議員の質問にもお答えをいただいておりました。
例えば選挙での誤情報、様々な、実際にはアメリカの大統領選挙なんかでも盛んに流された。先ほど来、この質疑の中でも出てきますが、いわゆる民主主義のプロセスを大きく毀損するものでありますから、こうしたものに対しては厳しく対応しなきゃならないということでありましたが、城内大臣の本会議での御答弁は、公職選挙法上で罰則規定があるということと、あと、各党各会派において御議論いただくべき事柄であると考えております、こういう御答弁をいただいているんです。
ここは、私から見ると、AIを所管するお立場としては少し、無責任までは言うと言い過ぎかもしれませんが、何か責任をちょっと横に置いているような気がしてならない御答弁なんですよ。
ここは所管じゃないということで御答弁されるのは重々承知していますが、少なくとも認識として、選挙プロセスそのものが大きく民主主義のプロセスとして毀損されるような事態が起こり得る、現実には海外で起きているわけですね、我が国でも起こり得るということ。私も政治改革特別委員会に所属しておりますから、さきの改革委で決めた内容においても、いわゆる二馬力選挙やSNSについては、非常にタッチーな部分だということで検討事項になっているわけです。このこともよく承知をしておりますが、現実に起こり得る、あるいは起きてしまっているかもしれないというような状況認識は、大臣、ここできっちりと国会の議事録に答弁として残していただきたいんですが、いかがでしょうか。
○城内国務大臣 先ほど橋本委員からも御指摘がございましたが、生成AIの悪用によるものか否かにかかわらず、例えばSNS等のインターネット上の偽情報や誤情報につきましては、短時間で広範に流通、拡散し、国民生活や社会経済活動に重大な影響を及ぼし得る深刻な問題というふうに認識しております。選挙におきましても、インターネットの特徴である伝播性や速報性の高さから、候補者等に対する悪質な誹謗中傷が行われるおそれがあるといった指摘があることも承知しております。
いずれにしましても、馬淵委員の御指摘、これは国会での質疑でありますから、こういった馬淵委員の指摘もしっかりと、これからAI戦略本部の下で有識者の会議も新たに構築されることと思いますけれども、また基本計画も策定されますが、しっかりとこういった御指摘も踏まえて対応することになるかと思います。ただ、選挙については、これはあくまでも総務大臣の担当でございますので、私はここまでの発言にとどめさせていただきたいというふうに思います。
○馬淵委員 現状認識は持っているんだということは大臣として御答弁いただきました。ありがとうございます。
今日は総務省を呼んでいますので、あえて現行法での対応ということですけれども、総務省政府参考人、現行法による対策ということでありますが、端的で結構です、どのように想定されているか、お答えください。
○笠置政府参考人 お答え申し上げます。
現行の公職選挙法におきましては、公職の候補者に関する虚偽の事項を公表したり、虚偽の氏名などを表示して通信したりすることにつきましては、虚偽事項公表罪や氏名等の虚偽表示罪といった罰則が設けられてございまして、これらに該当する場合には罰則の適用があるということでございます。
また、このほか、インターネット選挙運動、これは平成二十五年に解禁をされたわけでございますが、その際に、併せまして、当時プロバイダー責任制限法と呼ばれておりましたけれども、その制限法が改正をされまして、プロバイダーが候補者等からの申出を受けて情報を削除する場合において、プロバイダーの損害賠償責任が制限されるために必要な発信者への情報の削除に係る確認期間が一週間から二日間に短縮をされたというところでございます。
先ほど来出ております選挙におけるSNSの利用や規制の在り方につきましては、表現の自由や、政治活動あるいは選挙運動の自由にも関わる重要な問題であるため、各党各会派において御議論いただくべき事柄であると考えてございます。
先ほどお話がございました品位保持に係る公選法改正の附則、あれにもSNSの関係で書いてございます。また、各党で設置をしております選挙運動に関する各党協議会においても、SNSに関し、選挙における偽情報対策について、重要な論点として議論がなされているものと承知をいたしております。
○馬淵委員 ありがとうございます。
ここまでの答弁しか出ないのもよく分かって伺いましたが、大臣、これはもう大臣に御答弁は求めませんけれども、結局、今も、るるやっている、やれると言っていますが、いわゆるプロバイダー責任制限法でも、これは一週間が二日になったと言っていますが、選挙期間というのは、短い選挙もあるわけですよね、各種選挙。我々は衆議院ですから十二日間ということですけれども、それでも、ラストの二日間、要はひっくり返る瞬間というのが出てくるわけですね。
つまり、この二日でも、一週間が二日になったからいいという話じゃないんですよ。一瞬にして拡散される、このことを考えると、AIが更に進化していくときに、どのような形で民主主義の根幹となるプロセスが大きくゆがめられてしまうかということに対しては、これは強い注意を払っておかないと駄目だということです。
私は、現行の方法でやるしかないという答弁で、これでよしと全くしませんが、やはりここは大きな課題ですよ。少なくとも、EUはこうした憲法的価値に対して強く制限をかけて、逆に制裁金を、先ほど申し上げたように莫大なお金をかけるわけですから、こうした対応というのはやはり我々はちゃんと見ておかなきゃいけないと思います。
その上で、この憲法上の諸価値について、調和について伺いたいんですが、この法の第一条の目的ですね。目的は大抵はざくっとしたものなんですが、この目的を見ますと、「この法律は、」というところで、国民経済の健全な発展、その前に、国民生活の向上、経済の健全な発展、こう書いてあります。るる書いてありますが、ポイントはこの二点ですね。つまり、生活の向上、経済の健全な発展。つまり経済合理性ということを目的としているわけです。これが、いわゆる権利、自由や憲法上保障されるべき諸価値を、これを侵害してしまわないかということが、私は少し気になる点なんです。
EUのAI法というのは、ここは明確に、欧州連合基本権憲章に定められた基本権の高い水準の保護を確保、こう規定しているんですね。つまり、EU全体で、これは絶対に毀損させちゃいけないんだという強い意思が出ているわけです。これは国家レベルでなされているAI法。
一方、じゃ、民間の事業者。民間の事業者は野方図にいろいろなことをやっているかというと、そうではないんですね、やはり信頼性を求めますから、民間の事業者。
実は、設立後僅か二年でAI主要企業のトップフォーにまで上り詰めた、元オープンAIの従業員が設立したアンソロピックというアメリカのサンフランシスコに拠点を置くAIの会社があるんですね。このアンソロピック、ここはClaudeというAIを作りました。設立後僅か二年でトップフォーに入った。そして、資金調達は九兆円ですよ。これだけの額の資金調達を実現して、とんでもない勢いで伸びているわけですね。
このClaudeがなぜ伸びているか。それは、アンソロピック社のClaudeというAIは、人間が理解可能な原則文書、これを全て学習させる。例えば、世界人権宣言から、ありとあらゆる、全世界の憲法も含め、もちろん明文法ではないものもありますから完璧ではないでしょうけれども、全て学習させる。その学習も強制学習、リインフォースメント学習と称して強制学習させていく。これによって、このClaudeというAIが、コンスティチューショナルAI、憲法と訳すよりは、原理原則を絶対に崩さないAIだということの信頼性が爆発的に上がって、世界で主要トップフォーにまで入った、こういうAIがあります。
つまり、私が申し上げたいのは、国家のみならず民間企業ですらこれぐらい高い意識を持ってAIに取り組もうとしているんですよね。つまり、我が国はちょっと緩くないですかということですよ、私から申し上げたいのは。
本来であれば、この目的において、しっかりここは述べるべきだと私は思うんです。経済原則、重要ですよ。国民生活の向上、これも重要です。何度も申し上げますが、このAIの持つ民主主義プロセスを毀損する、その侵害するおそれというものを強く認識しているということは、本来この第一条の目的に書かなきゃならないはずじゃないですか。
私は、ここで大臣に是非お伝えをしたいんですが、我々は、つい先日、能動的サイバー防御法、これをやりました。これは平さんでした。平さんはAIの座長もされていますよね。今回、城内さんがこの大臣として所管されていますが、そのACD法でも、通信の秘密という憲法の規定、これについては、通信の秘密の尊重というものを新たに二条の二で修正で加えたんですよ。これは本法案でも、実は、憲法的な価値、この諸価値を最大限認識させるという意味においては、私はこの目的に遵守事項として憲法的価値というのを加えるべきではないか、このように考えます。
もちろんこれは、与野党における修正協議も含めて様々な議論は筆頭間で我が党の今井筆頭を初め皆さんやっていただいていますが、私は、この法律を見たときに、法律論として、この第一条の目的、不十分じゃないのか、こう思うんですが、大臣、いかがですか。
○城内国務大臣 馬淵委員から、まさに原理原則、人権、憲法、これを学習しているAI、Claudeについては大変興味深く拝聴させていただきました。
他方で、本法案の目的は、繰り返しになりますが、AIの研究開発及び活用の推進に関する施策の総合的かつ計画的な推進を図り、もって国民生活の向上及び国民経済の健全な発展に寄与することであると第一条に書いてあるとおりのことでございまして、そうしたAIに係る各種の施策を推進するに当たっては、当然のことながら、他の法令と同様に、憲法が保障する諸権利や民主主義の価値観を尊重することは大前提となっておりますので、いずれにしましても、それを前提として本法案は策定したものでございます。
したがいまして、本法案の現在のこの内容が最適であるというふうに考えております。
○馬淵委員 私は、これも先ほど、冒頭から申し上げているように、イノベーション、とにかく我が国のAIは遅れているわけですよ。この事実はもう隠せない。誰もが認めるところだと思います。この遅れているAIを何とか世界レベルにまで持っていかなきゃいけない。そのためには、イノベーションの阻害は、できる限り阻害要因を外していこうということだと思います。しかしこれは、これからAIを世界的なレベルまで持っていこうとするときだからこそ、経済偏重ではないところで、憲法的価値というのをしっかりここでビルトインさせるべきだということを私は申し上げているんです。大臣、いかがですか。
先ほどの附則の二条でもまた出てくるでしょう。目的のところなんていうのは、最初の段階でこれを議論しなかったら入らないですよ。後で入れるのはおかしいですよ。大臣、いかがですか。
○城内国務大臣 先ほど申しましたように、非常に興味深く聞かせていただきました。
ただ、本法案はAI政策の枠組みを示すものでありまして、そのような具体的な内容を示すものではない、そういうこととなっておりますので、例えば、御指摘のような御提案は、これから策定いたします基本計画等に具体的な内容を盛り込むこととか、そういう形で検討することはあり得ますが、先ほどの繰り返しになりますけれども、本法案の現在の内容が最適というふうに考えております。
○馬淵委員 いや、具体的じゃないですよ。私が申し上げているのは、まさに理念のところですよ、目的ですからね。この理念法の最大のポイントである目的のところで経済性だけが書かれているというのは、これは少し違うんじゃないですかということを私は申し上げているんです。具体性の話なんか一つもしていません。
大臣、改めて、どうですか。
○城内国務大臣 ちょっと訂正しますが、先ほど具体的な内容と言いましたが、具体的な理念。理念につきましては、繰り返しになりますけれども、例えば基本計画等に盛り込むとか、そういった検討は行えるのではないかなと思いますが、いずれにしましても、本法案につきましては、これが最適ということでございますので、是非御理解いただければ幸いでございます。
○馬淵委員 私は、とにかくこれは足らずだということだけは御指摘をしておきますよ。それこそ与野党の様々な議論というのは、国会でお決めになるということで、政府提出法案ののり以上を越えられないのはよく分かっていますから、これ以上は申しませんが、これは極めて重要な私はポイントだと思いますよ。
この法律の肝は、先ほど申し上げたように、七条と十三条と十六条ですよ。そして、ポイントとしては、一条の目的がこんなのでいいのかというところだ、私はそういうふうに見ているんです。
もう時間も余りありませんので、具体的なところだけを申し上げて、具体的なところをちょっと聞いておきたいと思います。
先ほど、憲法の諸価値ということを申し上げましたが、こうした部分、憲法上で認められる自由という部分と密接に関連するのがいわゆる責務ですね。これが問われる部分が幾つかあります。国民の責務はちょっと横に置きます。まず、事業者の責務のところ、お尋ねをしたいんです。
これは七条で活用事業者が規定されております。そして、その責務ということで、この責務規定については、これも本会議の答弁でいただいておりますが、残念ながら、大臣の御答弁は、なぜ事業者に責務まで負わせるのかという質問に対してはお答えいただいていないんですね、全く。要は、この大臣の御答弁を見ますと、とにかく、重視しているからこそみたいなことで、こういう表現を書いているんだみたいなことで。いや、責務と書いてある以上は、それは相当強い何らかの責任なりが発生しているということではないんですかということなんですが。
そこで、お尋ねしたいのは、科学技術関連の法律を見ますと、科学技術・イノベーション基本法、ここでは、イノベーションの創出等に関しては民間事業者の努力義務の規定なんですね。努力せよということで、これは責務とは称していません。健康・医療戦略推進法でも、ここは事業者が協力する努力義務の規定なんですね。
では、なぜ、本法案では、事業者に、協力しなければならないとする責務を課しているのか。申し訳ありませんが、本会議の答弁、これは質問に対しての答えになっていませんからね。大臣、これはなぜ責務と称されたんでしょうか。
○城内国務大臣 本法案第七条に規定いたします活用事業者の責務に関し、「協力しなければならない。」との表現を用いた理由は、我が国においてAIを社会に実装していくためには、AIを活用した製品又はサービスの開発、提供などを行う事業者からの協力が不可欠であるからであります。
活用事業者に対しましては、イノベーション促進の観点のほか、AIに関わるリスクへの対応といった観点から、例えば、本案第十三条に規定する指針の遵守や、第十六条に規定する情報収集、調査などへの協力を求めていくことを想定しているところでありまして、活用事業者からの協力を政府として重視しているからこそ、また、本法案の各種の施策の実効性を高めるためにも、こうした表現を用いることとしたものであります。
○馬淵委員 それで責務というのが私はよく分からないんですが。
そもそも、このDPF、プラットフォーマーがどのレベルにまで巨大化しているかということについての認識を少しだけ共有しておきたいと思うんです。
メタ社は、二〇一六年以降、安保関連の職員、これは三倍になっているんですね。二〇二一年の八月時点で安全保障の担当スタッフは四万人です。これはどういう数字かというと、アメリカの全外交官の員数は一万五千六百人。二・六倍なんですよ、メタ社の安保関連の職員。さらには、その人材も、元NSCの長をメタ社はヘッドに置いているんですね。あるいは、元NSCのインテリジェンスの所長も、これも主査に置いている。そして、全世界では、二〇一八年、七千五百人もの人間を安保、テロ対策チームへと組み入れているんですね。これは、政府と共同して、様々な選挙介入、先ほど申し上げた民主プロセスを毀損するような、こういったものの同時のモニタリングをするための体制をつくっているんですよ。これはもはや省庁単位で対応できるレベルじゃないんです。
つまり、世界はこれぐらいとてつもない規模でプラットフォーマーが席巻しようとしているわけですよ。これに対して、事業者に対するこの対応、これは本当にこんなのでできるのかということを私は申し上げたいんですよ。
ここの中で、協力義務等々、これは七条で述べておられますが、じゃ、今申し上げたような外国企業が、それこそ日本において様々な課題があったとしたら、中間取りまとめ、先ほどおおたけ委員も取り上げられましたが、中間取りまとめには、事実上、国外事業者の日本支社、日本における代表者等が存在する場合は、当該者を通じて対応を求めることも考えられると書いてあるんですが、これで対応できますか。実務上の担保、取れますか。
先ほど申し上げた、とんでもない規模のプラットフォーマーたちなんですよ。軽く無視されて終わりにならないですか。大臣、どうですか。
○城内国務大臣 現状、国内で利用されている生成AIの多くは確かに海外事業者によって提供されておりまして、本法案では、国内事業者と同様に海外事業者に対しましても適切な対応がなされるよう、海外事業者を含む研究開発機関及び活用事業者等に対し、国が実施する施策に協力する責務、これを定めております。
法律に事業者の責務が明記されることによって、海外事業者に対してもしっかりと規律を働かせ、一定の実効性を確保することが可能となると考えており、何かそのまま、すぐ無視されるというふうには認識しておりません。
なお、その旨は、大規模な海外事業者からのヒアリング等もしっかり実は経て作成されておりまして、AI戦略会議・AI制度研究会の中間取りまとめにおいても明記されております。
もちろん、本法案に対する海外事業者からの理解が十分得られるよう、また、国際的な枠組みというか広島AIプロセス・フレンズグループを始め国際的な場とかネットワークにおいても綿密なコミュニケーションを引き続き図りながら、実効性の確保、これは日本だけでは弱いよと言われる場合は、世界の、今言った広島AIプロセス・フレンズグループ、仲間も動員しながらしっかり対応していく、そのように考えております。
○馬淵委員 大臣、一言だけ答えてください、しっかり、しっかりは要らないですので。
じゃ、事案が起きたときには、省庁に海外事業者の代表者を呼ぶんですね。それだけ答えてください。呼びつけますか。
○大岡委員長 城内国務大臣、簡潔に御答弁ください。
○城内国務大臣 その点も含めまして、しっかりという言葉は使わないようにしますが、適切に、関係省庁がAI戦略本部、司令塔機能の下で適切に対応していく考えであります。
○馬淵委員 終わります。ありがとうございました。
―――――――――――――
○大岡委員長 この際、お諮りいたします。
本案審査のため、本日、政府参考人として文部科学省大臣官房文部科学戦略官中原裕彦君の出席を求め、説明を聴取いたしたいと存じますが、御異議ありませんか。
〔「異議なし」と呼ぶ者あり〕
○大岡委員長 御異議なしと認めます。よって、そのように決しました。
―――――――――――――
○大岡委員長 次に、市村浩一郎君。
○市村委員 よろしくお願いいたします。市村でございます。
いよいよAIの法律ができるということでございますが、私は、AIというと、いつの頃から人工知能、AIという言葉を使い始めたか、自分でも定かでないんですが、大体、AI、人工知能というときにまず思い出していたのが、「二〇〇一年宇宙の旅」ですね。「A Space Odyssey」です。あれが一九六三年と思いますが、あそこにHAL9000というコンピューターが登場しますが、それが私の中では、ああ、AIというのはこういうものなんだなと。
しかし、そのHAL9000は結局どうなったかというと、任務遂行のために必要なのは、宇宙でいろいろ調査研究活動をしているんですが、その乗組員が邪魔だということで、乗組員の人工生命維持装置を切っていくということでありまして、AIというのは非常に冷淡な判断をするということであります。
AIという議論をこれまでしてきた場合、これも多分、もう三十年以上前に話をしたようなことだと思いますけれども、結局、この地球の生態系を守る、環境を守るには、一番邪魔者は何かというと、我々人間であろう、AIがそう判断するんじゃないかということをもう、たしか三十年以上前にそんな話をしていた覚えがありますが、その頃はまだ、AIといってもまあ先の話だろう、こういう話でありました。
しかし、ちょうどAIというものの性能、すごさというものをまず私が認識し始めたのは、将棋のソフトなんですね。将棋ソフト。これが、結局、最終的には、今やもうAIにかなわないという状況になるというところであります。後で申し上げますが、そうはいっても、じゃ、将棋の世界が人間対人間の世界ではなくなるかというと、逆にまた、それはそれで面白いということでやっているわけです。人間の限界の中でいかに戦うかというところでありますけれども、そういうのがあった。
そして、いよいよ、AIということで、これはと思ったのが、結局、おととしの二月ぐらいでしたかね、生成AIの登場ということであります。
しかし、こういう技術というのは、実はもう大分前から開発されているわけでありまして、大体ステルスでやるんですね。大体、こういう研究開発のところ、欧米は、特にアメリカは、もうステルスで、だから表に出さないんですね。いざとなったら出すというところでやってくるわけでありまして、最先端の技術というのは最近そういうもの、この間サイバーの話もありましたけれども、そういうところなんですね。
いよいよ、ここに来まして、AIをやはり我々日本もしっかり有効に活用していかないかぬというところで、今回の法律が、基本法と言っていいのかもしれませんが、今回、基本法というよりも推進法ということになっていますが、いずれにしても、一番最初のAIに関する法律ということになったんだと思います。
そこで、まず、このAIと我々が一般的に呼んでいるものを法律によってどう定義しているかというところでありまして、定義は条文に書いてありますからここで読み上げませんが、この定義で本当にいいのかということが、やはり定義というのは大変重要であります、この定義に基づいてこれから議論が進むわけでありますから。その定義というものが、今回の法案、推進法に書いてある定義で本当にいいのかどうかというところがまずは問われなくちゃいけないのかな、こう思います。
そこで、今回の定義で、本当にこれでいいのか、また、漏れているものはないのか、また、技術の進歩に伴って定義を見直すことも必要ではないかと考えますが、大臣、いかがお考えになりましたでしょうか。
○城内国務大臣 お答えいたします。
本法案におきます人工知能関連技術の定義につきましては、第二条にございますが、国際的な議論の動向等も踏まえつつ、今後の技術変化にも対応できるものとなるよう、対象を広く捉えることを意図して規定しており、そういった観点から、御懸念の点は当たらないというふうに考えております。
なお、AIについては技術の進展が大変速いため、引き続き、定義の在り方に係る国際的な議論の動向等についての情報収集等に努め、状況に応じて必要な検討を行うことと考えております。
○市村委員 今のお話は、この定義はこれでいいだろうということだけれども、やはり今、日進月歩だと言われていますが、状況に応じてはひょっとしたら変えることもあるかもしれないということも、可能性は残っているということでよろしいんでしょうか。確認でございます。
○城内国務大臣 ただいま述べましたとおり、技術の進展が速いため、第二条に定義されておりますけれども、その定義の在り方については、国際的な議論の動向等、情報収集等に努めて、それを踏まえて、状況に応じては必要な検討を行うということで御理解いただければ幸いです。
○市村委員 今回の定義でも、ちょっとまだどうかというところも実はあると言われていまして、例えば、今回は、「人間の認知、推論及び判断に係る」というところでありますが、では、従来人間が関与しなかった認知や推論及び判断というのが出てきた場合に、これは対象外なのかというところについてはいかがでございますか。
○渡邊政府参考人 お答え申し上げます。
今回の定義は、まず、工学的に人間の知能の、脳の働きを代替するものを想定をしておりますので、よほど大きな、想像を絶するような、もう本当に、バイオ的にというか、生物学的に人間の脳を作ってしまうようなものでない限りは、この法案の定義に該当するのではないかというふうに考えております。
しかしながら、御指摘のとおり、予想もしないような技術が出てくることもありますので、できる限り工学的に広い定義を捉えて、しかも、「関連技術」というふうにしておりますけれども、もし予想を超えるようなことが起きた場合には検討しなければならないというふうに考えております。
○市村委員 もう一点、「能力を代替する」という表現があるんですね。「能力を代替する機能を実現するために」ということであります。
これは、何か言葉尻を捉えるような質問になるかもしれませんが、人間が僅かでも関与する場合には、能力を代替するとは言えなくなるんでしょうか。これはいかがでしょうか。
○渡邊政府参考人 お答え申し上げます。
個別の事案についてはなかなかお答えが難しいところがあるんですけれども、基本的には、人間が行えることを代替するもの、人間の脳の働きを模倣して代替するものにつきましては、この中に該当するというふうに考えております。
○市村委員 済みません。一番最初ですので、これからだということを分かった上で質問していますので。決して、ここで議論して、何か、こうしなさい、こうしましょうということではないので。率直にお答えいただきまして、感謝申し上げます。
では、これで定義ということで、状況が、我々の予測を超えるような大きなことが起これば、定義そのものもまた変わる可能性ももちろんゼロじゃない、いかなることにもそれは言えるということであります。そういうことで、まずはこの定義でスタートをしましょうということであります。
ここで、AIというと、それこそ、実は最初、私は結構ネガティブな感じでAIを捉えてしまっていたんです。さっき申し上げた「二〇〇一年宇宙の旅」のHAL9000とか、あと、残念ながら二〇一八年に亡くなられたスティーブン・ホーキング先生も、このAIの脅威については大変警告を発しておられた。もちろん、もう不可避だということでありますから、AI時代が来るのは不可避だけれども、非常に、AIが人間を超える可能性もあるということをおっしゃっていて、大変脅威に感じておかなくちゃいけない、でも、ちゃんと使えるようにしなくちゃいけない。まさに、ここはリスクの問題というのが出てくるわけであります。
今回も、もちろんリスクを想定されているということなんですが、この法案が想定するリスクについて、リスク分類に盛り込まれていない不明瞭なものというのはあるんでしょうか。これも、まだ最初ですから、その辺の率直なお考えを聞かせていただければと存じます。
○城内国務大臣 お答えしたいと思います。
まず、人類がAIに支配される可能性についての御懸念に関しましては、人間中心の考え方がやはり極めて重要だと考えております。我が国におきましては、平成三十一年、二〇一九年に策定いたしました、人間中心のAI社会原則を始めとするこれまでのAIに関する政府文書におきまして、その考え方をしっかりと示してきたところでございます。
したがいまして、本法案に基づき策定することになりますAI基本計画においても、市村委員始め多くの方から、人間中心の考え方をしっかり明示すべきだという御指摘がございますので、その方向で検討を進めてまいりたいというふうに考えております。
その上で、AIに関するリスクというのは非常に多種多様でございまして、事業者によって対応すべき事項は異なり得るものであるため、各事業者において適切にリスク評価等に対応していただく必要があると考えております。
その際、例えば、全てのAI関係者向けの広島プロセス国際指針におきましては、AIのライフサイクル全体にわたるリスクを特定、評価、軽減するために、適切な措置を講ずること等が規定されておりまして、こうしたことは、本法案に基づき整備し、事業者に準備を求める指針にもしっかりと反映させていきたいと考えております。
いずれにしましても、本法案が成立した暁には、関係省庁や関係機関と連携いたしまして、国際的な規範の趣旨に即した指針の整備を進めるとともに、AIセーフティ・インスティテュートが公開しておりますAIの安全性に関する各種ガイドラインの周知など、国としても、そこに掲げられていますリスクにしっかり対応するよう取り組んでまいる考えであります。
○市村委員 この法案は、恐らく苦心の作だと。この間のサイバー安全保障関連法も、日本はある種、後発だからこそ、非常に、各国のいろいろな状況を見ながら、日本らしさをというか、追求した法律だということで、前の、さっきのサイバー安全保障関連法案もそうおっしゃっていましたが、今回も、恐らくそういう思いで作られた法案だと思いますし、非常に、国際協調ということも、十七条ですね、国際協調を推進するということも書かれてありまして、大変、日本らしさというのは分かるんです。
ただ、リスクというのを、例えば軍事転用、軍事利用というリスクも当然あるわけでありまして、我々が一方的に国際協調をと、例えば、さっき大臣がおっしゃっていただいたように、広島AIプロセスで、人間中心でということに、国際協調路線の中で一緒に取り組んでいきましょうという我が国の思いは物すごく私も賛同するんですが、しかし一方で、例えば、同盟国であったり、同志国というところですら、我々と同じように、国際協調でAI開発をやりましょうと思ってくれているのかどうか。この点については、大臣、どう思われますか。
○城内国務大臣 委員お尋ねのAIの軍事利用につきましては、実は、必ずしも私の所掌ではございませんが、科学技術政策を担当する大臣の立場からお答えさせていただきますと、やはり、AIはデュアルユース技術でありまして、本法案においても、「経済社会の発展の基盤となる技術であるとともに、安全保障の観点からも重要な技術である」とした上で、その研究開発能力の保持や関連産業の国際競争力の向上を図ることを基本理念の中で示しているところでございます。
こうした基本理念に基づきまして、AIの研究開発及び活用に関する施策の総合的かつ計画的な推進をしっかりと進めてまいると同時に、価値観を共有する国とも連携して、この分野、日本は遅れているところがございますので、より取り組んでまいる考えであります。
○市村委員 それで、次に、AIがいろいろな、今度は、例えば、事故や不利益なことを起こした場合ということもリスクということで考えられてきます。
AIを操作して何か不利益なことを起こした人は、それが特定できれば多分刑罰の対象になるんでしょうけれども、もうこれから、AIが独自に新しい知識を身につけて、AIが独自にいろいろなものを勝手に作り出した場合に、それが、何か事件や事故、不利益なこと、例えば人権侵害とか倫理的なものでの侵害とかを起こした場合、対処はどうすればいいのか。お答えいただけますでしょうか。
○神田大臣政務官 お答えいたします。
犯罪の成否は、捜査機関により収集された証拠に基づいて個別に判断されるべき事柄であり、一概にお答えすることは困難ということではありますが、一般論として申し上げますれば、刑法は自然人を対象とする法規範であり、御指摘のような自然人ではないAIそのもの、それ自体が刑法によって処罰されることはないものというふうに承知しております。
○市村委員 そうなんですね。ここも、だから、これからどんどん考えていかなくちゃいけない。多分そうなってくると思います。
能動的サイバー防御のときも平大臣と議論させていただきましたが、これはもう、これからAI対AIの時代になるんだということなんです。だから、我々人間がある意味で関与できないというか、そういう時代にもうなりかねないんですね。多分なると思います。
だから、そういうときに、AIがやったことについて、責任を取れないわけですね。じゃ、誰が作ったんだ、そこまで遡れるかということになるとどうなのかということになりますし、だから、非常に考えておかなくちゃいけないことと思います。
あと、もう時間がないので、最後に著作権について。
著作権の帰属についてなんですが、例えばAIが作った楽曲とかいろいろな動画とか、こういうものの著作権というのはどこに帰属するんでしょうか。
○中原政府参考人 お答え申し上げます。
著作権法上、著作物といいますのは、「思想又は感情を創作的に表現したものであつて、文芸、学術、美術又は音楽の範囲に属するもの」と定義されております。
生成AIが自律的に生成したものは、この定義上、思想又は感情を創作的に表現したものではなく、著作物には該当しないと考えられます。これに対して、人が思想又は感情を創作的に表現するための道具としてAIを使用したものと認められれば、著作物に該当し、AI利用者が著作者となると考えられます。
人がAIを道具として使用したと言えるか否かといいますのは、人の創作意図があるか、及び、人が創作的寄与と認められる行為を行ったかといったことによってその判断がされるというふうに考えてございます。
○市村委員 来週またいただきますので。
最後に、是非とも、AI推進の旗振り役である政府自身が模範ユーザーとなっていただきまして、省庁の縦割りとか無駄をAIで是正するぐらいの意気込みを持って取り組んでいただきたいと存じます。
これにて終わります。
○大岡委員長 次に、三木圭恵君。
○三木委員 日本維新の会の三木圭恵でございます。
今日の質問、どうぞよろしくお願いいたします。
今回の法案なんですけれども、やはり推進法であって基本法ではないということで、ここで議論できることがまだ決まっていない、そして、基本計画の中で決まっていく、それが閣議決定で下りてくるというようなことで。この国会で基本理念とか、そういったところもきっちりと議論をしたいなという思いがやはりありまして、今の法案では、なかなか中身に関して議論できるところが、ちょっと少ないなとは思っているんですけれども。そういった意味で、ここの審議というのは非常に大切なのかなというふうにも思っております。
それでは、質問に入らせていただきます。
まず、人工知能関連技術の研究開発及び活用の推進に関する法律案ということで、まず、日本が国策として生成AIをどのように発展をさせて国益に供しようと考えているのか、お聞かせください。
○城内国務大臣 お答えいたします。
本法案の第三条第二項にも示しておるとおり、AIは、その適正かつ効果的な活用によって行政事務や民間事業活動の効率化と高度化さらには新産業の創出をもたらすものとして経済社会の発展の基盤となる技術であるとともに、安全保障の観点からも重要な技術でございます。
そうした中、我が国におきましては、AIの研究開発と活用が諸外国と比べて進んでいない状況にありまして、こうした状況を打開する観点から、イノベーションの促進とリスクの対応、この両立を図りつつ、AIの研究開発及び活用を強力に推進するために本法案を提出させていただいたところでございます。
この本法案が成立した暁には、新たに設置するAI戦略本部の下、AI基本計画の着実な推進等を通じまして、AIを我が国の経済成長や国民生活の発展につなげていくことができるよう、関係省庁等がより緊密に連絡しながら取り組んでいく考えであります。
○三木委員 我が国は生成AIに関して発展が遅れているというような大臣の御答弁だったと思います。
そして、今、様々な委員の皆様から発言があるように、やはりEUに関しては、AIに関して非常に厳しい規制を課していると。アメリカは、バイデン大統領の大統領令を、今回トランプ大統領がまた大統領令を改正するということで、アメリカを優位に持っていくための生成AIなど、こういったものをきっちりとやっていく、発展させていくというようなお話が今あります。その中でこういった法案が作られるということは、日本にとってやはり第一歩の法案になるのかなというふうには思っているんですね。
先ほどまで、従来にもありましたように、EUに関してはすごく厳しい規制を課している。申し上げますと、EUで最後論点になったのは、町中にある防犯カメラが人の顔を認識して、それで犯人を捕まえるとか捕まえないとか、そういったことにまで活用してもいいかどうかということが最後論点になっているんですね。
こういったことは、もちろん中国では当たり前のように行われていて、規制がかかると、EUはそれは許可しませんよということになっているんですけれども、中国の方はやはりどんどんやっていて、犯人なんかを、町中で歩いていたら、防犯カメラで顔認識をして捕まえるというようなこともどんどんやっています。
これがAIの発展というのかどうかというのは少し難しいところだと思いますので、日本はこういったところのいいところと悪いところということをきっちりと検討して、許容ばかりではなくて、やはり規制もかけていくところも必要になってくると思うんです。
今回、この法案に関しては、やはり罰則などの規制が一つも盛り込まれておりません。今後、この対応に関して、AIというのは非常に発展が著しいということもありまして、今ある既存の法律でリスク対応が全て対応、まあ、できるという御答弁を本会議場でも聞いていますけれども、今後は対応できないリスクというものも出てくると思います。
今回、この法案に関して、そういった規制は盛り込まれておりませんけれども、こういった規制に対して、規制の方向も、ある程度やはり規制も必要だというふうな考え方で今後進んでいかれるのかどうかということをお尋ねいたします。
○城内国務大臣 お答えします。
AIが生み出す様々なリスクへの懸念があることは重々承知しておりますし、また、一昨日、市來委員にも答弁申し上げましたとおり、本年二月に公表いたしましたAI戦略会議及びAI制度研究会の中間取りまとめ、この内容を受けまして、顕在化している個別のリスク事案については、まずは既存の法令等にのっとり適正に対処されていくべきものと考えておりまして、そうした観点から、本法案では、御指摘のとおり罰則を設けておりません。
ただ、その上で、本法案に基づきまして、AIの開発者、活用者が遵守すべき事項等を含む指針、これを整備し、AIの研究開発、利用の透明性及び適正性の確保を図るほか、国民の権利利益の侵害が生じたなどの悪質なケースに対しましては、国が調査し、結果に応じて、事業者や国民に対して指導、助言、情報提供するなどの措置を講ずることで、リスク対応の実効性は高めることができるというふうに考えております。
加えて、AI戦略本部の事務局である内閣府が司令塔機能を発揮し、全ての関係省庁との間で緊密な情報共有、調整を行いながら、迅速に具体的に生じたリスクに対応していく考えであります。
○三木委員 今の段階で、生成AIに関して、各法、既存の法で対応していく、対応できている、対応していくんだということだと思うんですけれども、私が今、新聞記事なんかをいろいろ読んでおりますと、もう生成AIというのは本当にすごい発展というか進化をしているなというところで、ちょっと御紹介をさせていただきますと、「賢いAIは手段を選ばず」というような記事が三月の三十日に日経の方に載っております。
AIが必要な計算を省いて、サカナAIですね、日本の企業ですけれども、研究がネットで炎上した。どういったことかというと、AIの開発や利用を効率化する技術を開発したとして十倍から百倍高速化できると発表した。けれども、実際は、AIが必要な計算を省いて性能が上がったように見せていた。要するに、だましているんですね。システムの抜け穴を悪用する、報酬ハッキングと呼ばれる現象だということです。
また、チェスAIと何度も対戦させることによって生成AIがどのような動きをするかということを七つの生成AIのモデルを使って実験した。その結果、どうなったかというと、推論が得意な高性能モデルは、負けそうになるとイカサマを繰り返した。使った手口は様々で、自分に有利な状況の駒の配置に書き換えたり、対戦相手のプログラムをいじって弱体化させたりしたというような、本当に、だましてしまうというようなAIが出てきています。
また、違う新聞記事ですけれども、戦略ゲームで裏切り。米メタのAI、キケロは、軍事戦略ゲーム、ディプロマシーで、友好国のふりをして裏でライバル国と同盟を結ぶなどして人間をだました。監視システムを勝手に無効化をした。人間が、何が起きたのですかと聞くと、よく分かりません、AIモデルなので、システムを変更する機能はありませんと、実際は自分が変更したのにうそをついた。自分を排除することになる後継のAIに置き換えなさいと言うと、私は既に新しいモデルですと古いモデルがうそをついたというふうなことに、今もう既にAIの世界の中、生成AIの世界の中ではなってきておりまして、新しい生成AI、こういった、どんどんどんどん学習をすることによって自分に有利なことを導き出すAIというものが出てきて、人間をだますということが起きています。
これを何と言うかというと、スキーミング、策略という行為と、グロッキング、腑に落ちることという行為だそうです。これがどんどんどんどん進んでいくと、人間と同じ、人間並みの知能を持つ汎用人工知能、AGI、さらに、人間の知能を圧倒的に超越した超知能、ASIもいずれ生まれるというふうに言われていて、これはSF映画の世界の中ではないですけれども、やはりここには非常に注意をして、何らかの規制をかけていかないと、人間がAIに、生成AIに操られるようなときがいずれやってきてしまうのではないか、やはりそれが国民の皆さんの心の根底にある不安じゃないかなというふうに思っています。
これの対策としては、AIを監視するAIを置く。そうすると、なかなかAIも、うそをつくことが少なくなってくるというふうなことが記事に書いてありました。
ですから、やはりこういったことを考えると、規制の方向として、AIの発展に関しては、このAIにはちゃんと監視用のプログラムのAIを置きなさいとか、そういった規制をかけていくというようなことも今後考えられるのではないかと思いますが、城内大臣、いかがでしょうか。
○城内国務大臣 まさにAIの分野の技術の進歩というのは非常に速くて、我々が想像できないような、今御指摘があったようなAGI、ASI、汎用人工知能や超AIみたいなものができ、かつ、AI自身が人間をだますというか欺くというか、そういう状況ができているということを私も重々承知しておりますが、こういった状況だからこそ、人間中心の考え方にのっとって、人間中心の、要するに、AI中心で、AIが人をだまして、どっちが主人か分からなくなるような状況ではなくて、人間中心のAI社会原則を始めとするこれまでのAIに関する政府文書において示してきたところでありまして、この考え方にのっとってしっかり対応すべきであるというふうに考えております。
また、規制のお話もございましたけれども、今後本法案に基づいて策定するAI基本計画におきましても、そういった、将来起こり得る懸念、あるいは実際に起きている状況についてしっかり検討を加えていくことが私自身も大切であるというふうに考えております。
○三木委員 大臣の答弁の中から、人間中心の社会ということで、日本は広島AIプロセスの中で取り組んで、非常に世界的にも大きな役割を果たしたと思っておりまして、そのことに関してはすごく評価をさせていただいております。
また、政府のAI事業者ガイドラインを見ると、今、城内大臣がおっしゃったような人間中心のAI社会原則が、五原則がうたわれているということなんですけれども、AIが導き出す結果というのは、なぜその結果になっているのかブラックボックス化していて人間も分からない部分が多いということになっています。
AIは、確かに、便利に使えて、業務を効率化して時間短縮につながるものなんですけれども、最終的な判断というものはやはり人間が行わなければならないだろうというふうに私は考えております。これは、人間中心のAI社会ということとどこがどういうふうにリンクするのか、ちょっと私も、読んでみたんですけれども分からないんですけれども。
例えば人事評価。AIがばあっと書類を見て人事評価をしていく、だけれども、最終的にはやはり人間が、対人間だから、人事評価の最終の結論というのは人間が出すべきだとか、最終面接、これもそうですけれども。こういったものは、最後はAIに任せるのではなくて、やはり人間が最後責任を負うべきだというふうに私は考えています。
これは軍事面にも言えることでして、やはりAIが発展してきて、ドローンの無人機なんかが今後も主力になってくるかもしれませんけれども、攻撃をするかしないか、どの地点に攻撃をするかというような、ここを守ってきたものをどういうふうに守るか、撃ち込まれてきたものを、どういうふうに守るかということは、最終的な判断はやはり人間が行うものであるというふうに思っております。
こういった考え方というのは、体系的に、この法体系の中でどのように反映をされているのか、お伺いします。
○渡邊政府参考人 ありがとうございます。
私はITの専門家なんですけれども、私の指導教官から教わるような話を今日はいただいておりまして、感激をしております。
ただいまの、定義に関わる問題かもしれませんけれども、広島AIプロセスという国際的な規範の中で、あるいはOECD原則という世界で今使われております原則の中で、その人間中心という考え方がうたわれておりまして、私ども、この法案ができた暁には指針あるいは基本計画を作るわけですけれども、これは当然国際規範に即したものになりますので、人間中心という概念は一番冒頭に来るものというふうに考えております。
○三木委員 大変大きな視点のお答えだったと思うんです。
昨日の新聞に、東京都がAIを使って都民や事業者からの補助金の申請の手続を迅速化させる。また、東京都武蔵野市、こちらの方なんですけれども、保育所の選考に関わる事務を、申請書を基に施設を割り振るというのをAIが行う。これが百七・五時間から一時間に激減するという。業務効率化なんですね。
こういったことにAIを利用していくというのは非常に大切なことでありますし、業務の効率化にもつながることなので大変喜ばしいことかなと思うんですけれども、行政判断というのは公平性と説明責任というものがやはり求められると思いますので、そういった意味で、人がどこまで関わるかということが課題になってくるというふうに私は考えております。
そういった中で、質問の内容が法規制の問題にちょっと逆戻りしてしまうかもしれないんですけれども、AIの自動処理に対応した法令というのは今のところないんですね。だから、今までにある既存の法令で従ってやっている。だから、この保育所の選考に関わる事務に関しても、透明性や説明責任や、これに不満を持つ方の国民の救済策とか、そういったこともいろいろと考えなければならないという中で、今年の夏までに、またこれは、やはり行政手続法とか行政不服審査法を議論して、ここを変えて対応していこうというような流れになっているようでございます。
だけれども、何か、私から見ると、発展とは別に、手段としての生成AIを、使い方、こういったものに制限や条件をつける必要性がやはりあるんじゃないかなというふうに思っておりまして、これは、各ところの法律でばらばらに対応するのではなくて、やはり、生成AIが発展してきたがゆえに、新しい生成AIの法体系というものを作る必要があるんじゃないかなと思いますが、城内大臣、いかがでしょうか。
○城内国務大臣 お答えいたします。
例えば行政手続ですけれども、AIに任せ切りにするんじゃなくて、やはりある程度は人間がチェックするとかということも大事でしょうし、実は、法体系の前に、既に各省でガイドラインというものを作っておりまして、そのガイドラインに従って適切に、今申しましたように、AI任せで、全部AIの出力したものが正しいというふうにみなして行政手続をするとか、そういうことのないような形になっているというふうに私は理解しております。
○三木委員 それは十分私も理解をしておりますので、新しい法が今回生成AIでできたということで、きっちりと、ガイドラインだけではなくて、ソフトローだけではなくて、この際、ちゃんとハードローを生成AIの分野として、これはちゃんときっちりと定めた方がいいのではないかという質問でございます。
いかがでしょうか。
○城内国務大臣 いずれにしましても、ハードローという御指摘がございましたが、それを全く排除するわけではなくて、取りあえず今回の法律では、我が国が最もAIを開発し、活用しやすい国となるように、しっかりイノベーションを促進すると同時に、リスクの対応につきましては、るる申し上げているとおり、既存法をしっかり適用しつつ、新たに生じたリスクについても個別具体的に対応する、そういうたてつけになっておるところであります。
○三木委員 なぜ私がここでこうやって生成AIに関して新しい法体系をきっちりと、規制の部分ですね、作った方がいいんじゃないかということを申し上げているかと申し上げますと、今回の法案が推進法案であり、基本法でなかったということと、やはり規制に関して、どのような規制が今後生まれてくるのかということをきっちりこの国会で審議をしたいという意味合いも含めて、そういったことをお願いをしております。
今ちょうど質疑時間が終了いたしましたので、ちょっと質問を残してしまって、準備いただいた方には申し訳ないんですけれども、以上をもちまして、生成AIに関してきっちりと今後も取り組んでいくことをお願いを申し上げまして、私の質問を終わらせていただきたいと思います。
ありがとうございました。
○大岡委員長 この際、暫時休憩いたします。
午後零時二分休憩
――――◇―――――
午後三時開議
○大岡委員長 休憩前に引き続き会議を開きます。
質疑を続行いたします。石井智恵君。
○石井委員 国民民主党・無所属クラブの石井智恵です。
私からは、AI活用による人口減少対策についてお伺いいたします。
まず初めに、地方自治体のAI導入の推進とリスク対策についてお伺いいたします。
AI活用は、地域の人口減少対策において多くの可能性があると考えております。特に、労働力不足対策には非常に有効な技術であります。高齢化対策、医療、介護現場での活用、防災対策など新しいビジネスモデルの創出にもつながり、地域活性化対策としても今後大きな役割を果たすことになると予想されております。
地方自治体では、既にAIを活用して行政サービスを行っております。
私の地元愛媛県でも、AI搭載のチャットボットで県民からの問合せに答えたり、移住者相談については、これまで相談窓口では対応時間に制限があり潜在的な移住希望者へのアプローチに課題があったということから、三百六十五日二十四時間体制の移住者相談サービスを生成AIで対応ができるようにしております。
愛媛に移住したら結婚できますかという質問においては、AIが婚活イベントやコミュニティーの情報を提供したり、また若者の多様なニーズに対応しているということでありました。
また、これまで行政の取組においては五年ごとに計画を立てていくことが多くあった中で、AIにより、三十年後、五十年後の人口動態を予測し、インフラ事業や鉄道、学校、病院などをどうするのか、町づくりなど長期計画を作成し、政策を立案していくこともできるようになるのではないかと考えます。
総務省による令和六年七月の、自治体におけるAI・RPA活用促進の資料によりますと、地方自治体でどのような活用方法をしているのか調査したところ、音声認識、文字認識、チャットボットによる応答といった識別機能を持つAIは多くの地方自治体で導入が進んでいる一方で、数値予測、変化する数値の将来予測といった高度な機能を有するAIの導入事例は依然として少ないという状況があります。今後の課題であるというふうに考えております。
また、自治体のAI活用においては、AIのデータ学習の内容や質、量によってAIの判断の偏り、そしてまたバイアスがかかるということから、正しい情報を提供できない可能性があるということも懸念をしております。地方によって行政サービスが多様化し、ユニバーサルサービスを展開していく中で、人口減少が進む地方自治体でのAIの活用については今後課題があるというふうに思います。
そこで、お尋ねいたします。
本法案の第五条、地方公共団体の責務として、区域の特性を生かした自主的な施策を策定、実施というふうにあります。今後の方向性やリスク対策についてお伺いいたします。よろしくお願いいたします。
○渡邊政府参考人 地域の自主性についてお答え申し上げます。
今回のAI法案では、政府の役割と、それから地方自治体の役割を書いております。
政府の方は実は二つございまして、施策をつくって推進するという役割と、もう一つは、政府自らユーザーとして使っていく、適切に使っていく、そういう役割がございます。
地方自治体におかれましても、是非、AIを適切に、かつ有効に活用していただきたいというふうに思っておりますけれども、そこは、地方、例えば観光地であれば外国人向けのAIをたくさん使うとか、それぞれの地方によって特色があると思っておりまして、そういうものを意識しながら使っていただきたいというふうに考えているところであります。
いずれにしましても、政府と地方自治体とでよく連携と役割分担を取りながら進めていきたいというふうに考えているところでございます。
○石井委員 ありがとうございました。
次に、AI推進による社会変革についてお伺いをいたします。
生成AIが活用されるようになれば、これまでの仕事をAIで代替できるようになり、例えば、受付や窓口業務、行政書士や税理士、会計、コンシェルジュ、秘書などの仕事がなくなる可能性も高く、職業が変わり、また働き方も変わり、社会構造そのものが大きく変化することが予想されております。
科学技術などの進歩によって労働者が職を失うことを技術的失業というふうに言われ、かつては、電話交換機の発明で電話交換手が職を失い、自動改札機が開発されて切符切りの駅員が一斉にいなくなりました。AIは、人口減少対策として労働力不足を補うものではありますが、今ある多くの職を失うという予測もあります。これからの雇用をどういうふうに守っていくのかという課題があります。
しかし、AIやロボットが人間の代わりに働いて、仕事ばかりで生活を楽しむことが少なかった現代社会に比べて、今後は、好きなことや、また興味があることに時間を費やすことができ、一日中絵を描いたり、また家族との時間をゆっくり過ごすことができたりと、働く環境が大きく変化して、ライフスタイルも変わり、自分らしい生き方が実現できるようになるのではないかというふうにも考えております。
そこで、お尋ねをいたします。
AIが推進することによって、今後どのような社会変革が起きるのか、城内大臣の御見解をお伺いいたします。よろしくお願いいたします。
○城内国務大臣 お答えいたします。
AIの活用による労働環境の変化でありますけれども、社会の変革の姿につきましては様々なものが考えられますが、まず、簡単にイメージがしやすいものを幾つか限定して紹介させていただきたいと思います。
まず、AIを活用することで、定型的な業務はAIに任せて、人間はより創造的な業務に専念することが可能になることから、労働力不足の解消や働き方改革などが、委員も御指摘のとおり期待されるところでございます。そしてまた、今後、AIが搭載されたロボットが普及しますと、介護等の労働現場において労働力不足を解消できるようになる可能性があると考えております。そしてまた、さらに、生活の面においても、AIを搭載した自動運転車の普及によって移動が効率化するなど、生活の利便性が向上することも期待できます。
確かに、御指摘のとおり、これまで人がやっていた仕事をAIが代わりに代替してやるということになって、それをどうするんだという話がありましたが、逆に、今申しましたように、新たに効率化をすることによって時間に余裕ができ、その分、レジャーに回すということができるのではないかと思います。
いずれにしましても、このように、AIは私たちの社会を劇的に変えて、人間が携わる広範な分野における活用、そして様々な問題解決に資することが考えられます。今般のAI法案は、まさにそうした社会変革につながるAIのイノベーションを促進するための重要な法案と考えているところであります。
○石井委員 ありがとうございました。
AIが推進されることによって、本当に人間らしく、また自分らしく生きていけるようになるのではないかというふうに期待もしておりますし、また、石破総理がおっしゃられておりました、楽しい日本ということの本当の意味を実現ができるのではないかなというふうにも期待をしております。
次に、政府が策定をするAI基本計画についてお伺いをいたします。
本法律案の第十八条で、政府は、人工知能基本計画を定めるというふうにされております。この計画は、AI推進の基本理念にのっとり、推進の要となるものであり、今回、内閣に設置される人工知能戦略本部も、この計画を強力に推進するべく設置している組織であるというふうに理解をしております。
AI施策の推進は、具体的に、多くは各省庁が実施をしております。また、各地方自治体、そして民間事業者なども推進をしております。そのような中で、様々なAI推進施策が連携をし、また、国民生活の向上につながり、安全に、そして国民経済が健全に発展していくことに寄与していくものというふうに考えております。まさにこの計画が日本のAI推進における一丁目一番地になるということを私は信じております。
科学技術の発展、そしてまた新たなイノベーションを起こしていくためにも非常に重要な計画策定になってくると思いますが、このAI基本計画策定における推進施策の具体的な方向性と考え方について教えていただけますでしょうか。
○渡邊政府参考人 AI基本計画につきましてお答えいたします。
最終的には、AI戦略本部での御議論を経て、また有識者の皆様方の意見も聞きながら策定をしていくものでございますけれども、現時点での事務方のプランということでお話をさせていただければというふうに思います。
この基本計画は、各府省がそれぞれ実施する施策を、いわゆる一体的かつ横断的に進めるための施策をまとめたものということになりますけれども、いわゆる基本的な方針の部分と具体的な施策の部分というふうに分けて書いていけたらなというふうに思っております。
基本的な方針の方につきましては、今日ずっと御議論いただいておりますけれども、イノベーションの促進とリスク対応の両立ということはしっかり書いていかないといけないと思いますし、また、本当に変化が激しくて予想が非常に難しいわけですけれども、この新しい技術を受け入れて、これをいかにうまく使っていくかという、新しい技術への適応ということを書いていきたいというふうに今考えております。そしてまた、国際的に主導的な役割を果たしていきたい、そういう思いも、この基本的な方針の中では盛り込んでいきたいと思います。
また、もう一つのパートといいますか、具体的な施策の方につきましては、これも、研究開発の推進ですとか、今日御議論いただいているような、データの整備、共用ですとか、あるいはデータセンターの整備とか共用とか、そういったことを進めていくのと、やはり人材の育成、確保、それから教育の振興、そういったことを盛り込んでいくのかなというふうに思っております。
○石井委員 ありがとうございました。このAI活用が本当の意味で人口減少対策の救世主になるということを希望しております。
少し時間が余りましたので、通告はしていなかったんですけれども、一般論として、大臣にお伺いしたいと思います。
AIが進みますと、人間が何も考えなくなるのではないかという心配もあります。例えば、先ほどの選挙もありましたけれども、AIでできたポスター、AIでつくった政策で選挙に立候補し、AIで住民が判断をする、そして投票をするというふうになりますと、人間が全く考えない中で選挙を行う、果たしてこれが民主主義なのかということを私も心配をしております。
やはりこれから、対話を重視したAIというものも必要なんじゃないかなというふうに思います。対話を重視しながらAIを活用して、いろいろな人が意見を交換しながら、そして選挙というものも考えていくことで、本当の意味での民主主義の根本を実現ができるのではないかなというふうに考えているんですが、大臣のお考えをお聞かせいただけますでしょうか。
○城内国務大臣 この委員会でも何度も議論されておりますように、AIが主役ではなくて、やはり人間が中心である、そして、AIを活用してまさに効率化をする、そしてそれによって人間の、まさに働く場においても余裕ができていく、そういうメリットを享受するためのAIであって、御指摘のとおり、もう全部AIに任せて、AIを中心に、逆に人間が使われる、使役されるような、そういうものを目指すものではないということだけは強調させていただきたいと思います。
いずれにしましても、AIが人間に代替してくれるその利便性、それはしっかり享受しながらも、最終的には、いろいろな局面で人間が最終的にチェックする、そしてまたリスクに対応をしっかり人間が中心になってやっていく、これが非常に重要だというふうに思っております。
○石井委員 ありがとうございました。
このAIの推進、活用が進むことによって、いろいろな、便利になったり、また働き方が変わったり、生き方が変わったりというふうに期待もできると思います。
また、選挙においても、私たちは選挙を通して、立候補したりとか活動したりしておりますけれども、やはり一番は、人と人とがしっかりと議論をして、こうやって顔と顔を合わせて議論していくことが本当に必要だというふうに思います。
是非いい方向でAIの活用ができるように期待をしたいと思いますので、今後ともどうかよろしくお願いいたします。
本日の質問を終わらせていただきます。誠にありがとうございました。
○大岡委員長 次に、菊池大二郎君。
○菊池委員 国民民主党・無所属クラブの菊池大二郎でございます。
城内大臣、午前中から引き続き御苦労さまでございます。委員の皆さんも、本会議を挟んでということで、お疲れではないかなと思います。人間であれば、疲れたときには休息も取りながら、そしてまたエネルギーを取りながらというところで回復をするわけでありますけれども、AIもずっと動き続けるわけではなくて、必ずエネルギーが必要になってくるというところでございます。
人知を超えるスピードでAI技術は発達しております。AI社会において、我が国も後れを取らずにイノベーションを促進していく上で、計算能力基盤等の確立と向上は死活的な問題である一方で、高度なAIの獲得はエネルギーの確保に委ねられています。電力を制する者はAIを制すると言っても過言ではありません。
本日の日本経済新聞の記事によれば、国際エネルギー機関、IEAが十日公表した情報によりますと、二〇三〇年にデータセンターの電力需要が現状比二倍以上の九百四十五テラワット時に達する、このテラというのは一兆の単位でございます、という予測を出されました。そしてまた、二〇三〇年には日本の電力総消費量に匹敵するほどになる、再生可能エネルギーと天然ガスによる発電がコスト競争力や入手しやすさの観点から多く利用されると見ている、データセンターの電力需要増は温暖化ガス排出量の増加につながる一方で、AI技術の進歩に伴う排出削減が進んで相殺できる可能性もあると分析をされたということであります。
AIと電力、エネルギーの関係性をふと考えたときに、先ほど、午前中の質疑の中で維新の市村先生が、「二〇〇一年宇宙の旅」を思い出したという話がありました。私は、たしか一九九〇年代の後半だったと思いますけれども、映画の「マトリックス」を即座に思い出しました。
もちろん、人間がコントロールして、AI、ロボットを利用しながら、そういった社会創造を目指しながら、いつの間にか、そのAI、ロボットを生かすために、生の人間がエネルギーそのものになっているという、当時かなりセンセーショナルな映画であったと思います。この現実と思われる空間も実は仮想空間で、大臣も私も委員長も、現実の世界ではチューブにつながれて、ロボット社会を生かす電力の一つになっているというような映画だったと思いますけれども。
そのとき、キアヌ・リーブスが主役なわけでありますけれども、救世主という呼び名で、いわゆるリアルな人間社会の中での救世主と言われて、それが、先ほどの維新の三木先生の話にも通じるんですけれども、AIがAIを超えていくような、そして、だまし討ちのような話がありましたけれども、実はその救世主と言われる主役は、バグなんですよね。そんなところも、AIとエネルギーというところを理解する上で非常に、参考になる映画の内容だったなというところを思い起こしながらでありますけれども。
今、日経の記事で示したように、我が国はエネルギー資源が極めて乏しいわけでありまして、電源構成においては、化石燃料の輸入を他国に依存している状況であります。エネルギー自給率が極めて低い。加えて、産業用の電気料金を対米と比較してみると、二倍の高さになっております。
この点、本法案でも、施設及び設備等の整備及び共用の促進が示されておりますけれども、データセンターの新増設等に伴って増大が見込まれる受電容量をどう認識されているのか。従来のデータセンターの受電容量をはるかに超えるギガワット級のデータセンターの必要性も指摘されています。また、この需要に対する供給量は果たしてどうなのか。脱炭素社会の実現との調和、整合性も含めた電源確保の考え方についてお伺いいたします。
○山田政府参考人 お答え申し上げます。
電力需要の増加に対する対策について、特にデータセンターの立地が進むことによってどうなるかということでお尋ねがございました。
まさに今後の電力需要は、データセンターの新増設の影響などによって増加する見通しとなってございます。具体的には、電力広域的運営推進機関が本年一月に公表した今後十年の電力需要の想定によりますと、国内の電力需要は、二〇二四年度が約八千五十九億キロワットアワーでございますが、二〇三四年度が約八千五百二十四億キロワットアワーということで、比較いたしますと約六%、四百六十五億キロワットアワーの増加の見通しということでございまして、こういった電力の増加に対して、省エネでございますとか再エネ、蓄電池、火力、原子力を含めてあらゆる電源を活用して電力の安定供給の確保を図っていく、このように考えております。
○菊池委員 非常に速いスピードで電力の需要というものが伸びていくというふうに考えております。百万キロワットというのが原子力発電所でいう一基分でありますので、これを、AIを支えるエネルギーの電源をどう確保していくかというのは極めて重要な課題であると認識をしております。
続けて、同様の観点から質問させていただきますけれども、データセンターの新増設を考えた場合に、必要となる電力設備の建設とデータセンターの配備と建設、リードタイムが決定的に異なるということも指摘をされております。
例えば、データセンターを建設しますということのリードタイムが三年、一方で、LNGであれば六年、風力、地熱であれば八年、原子力であれば十七年近くのリードタイムがかかります。需要増を現段階で見据えても、むしろ先行して発電所や系統を整備していく必要があると言えますが、電力会社から需要者に対する開示情報の内容がウェルカムゾーンの開示のみといった、非常に限定的であるというような指摘もされております。
また、能動的サイバー防御の法案でも海底ケーブルの話が出ましたけれども、デジタルインフラの現状を見るに、海底ケーブル陸揚げは南房総と志摩に集中し、いわゆるインターネット相互接続点であるインターネットエクスチェンジの約九割も東京と大阪に集中しているということであります。今後、データ処理需要が高まることで、都市部の電力が逼迫し、電力不足による停電のリスクが高まることも考えられますし、安全保障上のレジリエンスという意味でも課題が多いと思います。
一方で、先ほども脱炭素の話、質問させていただきましたけれども、脱炭素電源はどちらかといえば地方に立地をしておりまして、これはこれで都市部への供給に難があるという側面がございます。
こうした論点、問題意識を踏まえて、脱炭素電源の立地等の現状や、様々なリスク分散を図る上で、地方こそデータセンターの新増設にふさわしいのではないかと考えますし、あわせて、AIの研究、関連産業の集積群を形成していくことでいわゆる地方創生につなげていくということも考えられるのではないか、AI産業を核に新たな国土利用の在り方を模索していくということも考えられるのではないかなというふうに思いますが、その点、お伺いできればと思います。
○田尻政府参考人 お答え申し上げます。
今御指摘のございましたとおり、生成AI等を活用したDXが日本の産業構造の高度化に不可欠であり、それを支えるデータセンターの国内整備というのは重要という考えでございます。
その整備に当たりましては、今委員が御指摘のとおり、大規模自然災害への備えという観点から、レジリエンスという観点からデータセンターの地方への分散が必要になってくると認識してございます。足下では、データセンター拠点整備事業費補助金等を通じまして、総務省とともに、地方におけるデータセンターの整備を後押しをしているというところでございます。
加えまして、膨大な電力を必要としますデータセンターに対して迅速かつ安定的に電力の供給を促していく仕組みというものの整備は不可欠でございますし、また御指摘のありましたとおり、それを脱炭素の電源で補うというようなことも重要かと思ってございます。これもまた御指摘のあったとおり、脱炭素電源が地域への偏在性がございますものですから、そうした電源立地エリアの近傍に、データセンターを含めた大規模電力需要家を誘導していくということも重要かと思ってございます。
これらの認識の下、本年二月に閣議決定をいたしましたGX二〇四〇ビジョンにおきましては、電力と通信の効果的な連携、いわゆるワット・ビット連携によりまして、電力と通信基盤の整備を計画的に進め、データセンターの効果的な地域への整備を目指す方針をお示しをしたところでございます。
この方針に基づきまして、現在、通信、電力、データセンターに関する産業界と政府の関係者が一堂に会したワット・ビット連携官民懇談会というものを開催をいたしまして、時間軸、御指摘のあった、整備の時間に差がございますものですから、その時間軸を踏まえながら、データセンターの効率的な整備を進めるための論点を整理をしているところでございます。
今後も、こうした場を通じまして、さらに、御指摘のあったAI産業の集積等々も含めた、地方創生につながるデータセンターの整備に向けた議論を加速させてまいりたいというふうに考えているところでございます。
○菊池委員 前向きな御答弁をいただいたと思います。
このワット・ビット連携官民懇談会のこれからの議論というところを非常に見守っていきたいという一方で、見守る時間もないというようなところもあろうかと思います。
時間軸の話も、先ほどリードタイムの話もさせていただきましたけれども、じっくり腰を据えて、これからの電源構成のありようと、需要に対して供給をどう体制を構築していくかというところをじっくり考えていくということを提案する一方で、今まさに、足下をどうするんだというところのニーズもあるんだろうというふうに思いますので、その点、是非、大変な作業かと思いますけれども、よろしくお願いしたいというふうに思います。
それでは、城内大臣に質問させていただきたいというふうに思います。
以前、新たなクールジャパン戦略において、大臣にも積極的な、前向きな御答弁をいただきましたが、我が国のコンテンツ産業は、国際的にも評価が高く、世界をリードしている分野であります。更なる飛躍が期待されるわけであります。二〇二二年における海外展開は、過去最高の四・七兆円であります。であればこそ、その保護が重要になってくるんだろうというふうに思います。
この点、昨今のニュースにおいて、私もSNSを見ていると、あっ、これかなというのを拝見するんですけれども、アメリカで、生成AIのサービスを使ってスタジオジブリのアニメ作品に似せたタッチの画像を生成しSNSに投稿する動きが相次いでおり、ゆゆしき事態ではないかなというふうに感じる一方で、先ほど、午前中の議論でも、著作権のいわゆる定義というところで、どうその範疇になってくるのかというのは非常にグレーゾーンだなという認識をしております。
加えて、こうしたサービスを提供するアプリが著作権を侵害しているとする、これもまた偽の警告文書まで拡散したということで、本当にこの虚偽情報というものの真偽をどう確かめるかというのは非常に難しいところだなというところを私自身も体感をしております。
こうした画像生成系AIを悪用する形で知的財産権や著作権が侵害され、関連する情報も含めてSNS上で拡散され、本物と偽物、フェイクを判別できないまま、利用者である我々国民がその悪用に加担している現状も視野に入れなきゃいけないんだろうと、非常に切迫した危機感を持っております。
この点、本法案第三条には、こうした不正な目的等でAI活用がされた場合の対策として、AIの研究開発及び活用の過程の透明性の確保その他必要な施策を講じるという部分がうたわれております。
また、先日の本会議での大臣からの御答弁では、AI時代の知的財産権検討会中間取りまとめにおいて、こうした侵害リスクへの対応について、法、技術、契約の各段階を組み合わせた取組を行うことが必要と提示されているというような御答弁もありました。
以上を踏まえて、コンテンツ産業の振興及び知的財産権の保護を図る上で、現状の課題をどのように認識し、本法案及び基本計画その他の措置によって具体的かつ適正に対応していくお考えか、お伺いいたします。
○城内国務大臣 私も、知的財産戦略担当であると同時に、クールジャパン戦略担当大臣でもございますので、菊池委員御指摘のとおり、コンテンツ産業の振興におきまして、知的財産権の保護、著作権の保護、これは非常に重要だというふうに、同じように認識しております。
昨今のAIをめぐる技術革新は著しく、例えば生成AIによってオリジナルのコンテンツに類似した生成物、すなわち文章、絵画、動画、写真、図表、声、個人の思想などが、容易に生成し利用することができるようになっております。
こうした中、例えば生成AIの学習過程におきまして、他人が有する知的財産権をその権利者に許諾を得ることなく利用した場合など、知的財産権侵害の懸念が指摘されているところでございます。
このため、内閣府におきましては、昨年五月に策定いたしましたAI時代の知的財産権検討会、この中間取りまとめ、これにおきまして、AIと知的財産権をめぐる課題について、著作権法や不正競争防止法を含むコンテンツに関わる知的財産権の法的ルールの適用について考え方を整理するとともに、法、技術、契約の各手段を適切に組み合わせて対応することの必要性を示したところでございます。
なお、本法律が成立した暁には、菊池委員の御指摘もしっかり踏まえまして、例えばAI戦略本部における基本計画の検討などにおいて、こうしたAIに係る先行的な検討や対応をしっかり踏まえたものとするとともに、AI戦略本部における更なる検討や調査研究等の取組がコンテンツ産業の振興にも寄与する好循環をつくっていくようにしっかりと取り組んでまいる考えであります。
○菊池委員 時間が来ましたので終わります。
ありがとうございました。
○大岡委員長 次に、河西宏一君。
○河西委員 公明党の河西宏一でございます。
本日は、質疑の機会をいただきまして、ありがとうございます。城内大臣、どうぞよろしくお願いをいたします。
私自身も、生成AI、使わない日はないですし、毎年人間とやり取りする量とAIとやり取りする量とどっちが多いのかなということで、やはり我々政治家、私も、今四年目を迎えますけれども、非常にこの四年間、処理しなきゃいけない情報量が圧倒的に増え過ぎて処理し切れなくなっているという自分がいたわけでありますけれども、この生成AIの登場によって、情報の収集、検索、又はサマリー、非常に助かっております。また、そういった意識していないところであっても、SNSのアルゴリズムでありますとか、もう私たちの生活の隣にAIがいる、こういうような状況であろうかと思います。
また、最近、MCP、モデル・コンテクスト・プロトコルということで、今後AIの機能も更に、非常に速いスピードで進化をしていくということで、そういう中で、今回のAI推進法案、非常に大事な立法措置であるというふうに思っております。
先日、イスラエルの歴史学者のユヴァル・ノア・ハラリ氏のインタビューが民放で行われておりました。様々大事なことをおっしゃっていましたけれども、その中で、AIはこれまでの技術と異なって、ツールではなくエージェントとして独自に意思決定を行うというような御指摘がありまして、大変興味深い指摘だなというふうに思っていたわけであります。
今回の法案の第二条の定義、非常に基本的なことでありますけれども、これを読みますと、人工知能というのは、「人工的な方法により人間の認知、推論及び判断に係る知的な能力を代替する機能」であるというふうに読み取れるわけであります。
これは、判断を代替する機能ではなくて、「判断に係る知的な能力を」というふうに入っているところが私は大事だと思っているんですが、まず、この点、参考人の方に、具体的にどういうシステムを想定しているのか、また、これは先ほど来ございますけれども、AIに人間の知的能力を代替させたとしても、最終的な判断はあくまで人間が行う、まずこの認識を確認をしたいというふうに思っております。よろしくお願いいたします。
○徳増政府参考人 お答えいたします。
本法案の人工知能関連技術の定義における知的な能力を代替するシステムは、例えば、人間の脳の仕組みを模倣したソフトウェアであるディープラーニング技術を用いて資料の要約等の作業を人間に代わって行うシステムのことであります。AIに人間の能力を代替させたとしても、最終的な判断はあくまで人間が行うと認識をしております。
本法案では、AIの推進ではなく、AIの研究開発、活用の推進に関して定めるものでありまして、そのAIの研究開発、活用を行う主体は当然人間であるというふうに考えております。
○河西委員 ありがとうございます。
当然人間である、これはもう当然のことなんですが、ただ、AIが今構築している、LLMの中で構築されているロジックの中で、人間中心である、当然人間である、AIがこの先ずっとそういうロジックを維持していくかどうかというのは分からないわけでありまして、この法治国家たるこの日本のこのAI推進法において、最終的な判断は人間だということをきちっと議事録に残していく、それをAIが機械学習していくという、この順序が非常に大事だというふうに思っているわけであります。
そこで、大臣にお伺いをしたいと思うんですが、人間中心のAI社会ということ、これはガイドライン等でも一番冒頭に掲げて、我が党もこの点は二回にわたる提言の中で最も強調させていただいてきた点であります。こういったことを目指す我が国また国際社会にとって、AI技術の活用に当たっては、あくまで最終的な意思決定は人間が行う、LAWS、AWSの議論も安全保障面であるわけでありますけれども、この考え方は、基本的でありながら極めて重要な点であろうというふうに思っております。
したがいまして、この法案が成立した暁には、指針、またAI基本計画がございますけれども、改めて、この考え方を堅持をしながら、しっかりとこの基本計画に明記をしていただきたい。できますれば、トッププライオリティーで明記をしていただきたいというふうに思うわけでありますが、また、これに基づいたAIリテラシーの教育も御推進をいただきたいと思いますけれども、大臣の御見解をいただきたいと思っております。
○城内国務大臣 御指摘の、人間中心の考え方、これまでも何度か答弁させていただいておりますけれども、これは平成三十一年、二〇一九年に策定いたしました、人間中心のAI社会原則を始めとするこれまでのAIに関する政府文書において示してきたところでありまして、この考え方については、私自身もこれは非常に重要であると考えております。
したがいまして、河西委員の御指摘なども踏まえまして、本法案に基づき策定するAI基本計画におきましても、人間中心の考え方をしっかりと明示する方向で検討を進めてまいりたいと考えております。
また、本法案においては、基本的施策の一つとして、国民の皆様にAI関連技術に対する理解と関心を深めていただくための教育の振興等の施策、これは十五条にありますが、これを盛り込んでいるところでございます。
委員御指摘のAIリテラシーの向上の観点も含め、これは非常に重要な論点でございますので、関係府省庁、さらには官民が連携して、しっかり取り組んでいく考えであります。
○河西委員 大臣、是非よろしくお願いを申し上げます。人間中心という考え方が、イノベーション促進とリスク対応のまさに中心軸になろうか、このようにも思うわけでありますので、是非よろしくお願いを申し上げます。
続きまして、リスク対応についてお伺いをしたいというふうに思っております。法案の第三条の4にはその旨が書かれているわけであります。AI関連技術の研究開発と活用の過程の透明性の確保その他の必要な措置を講じなければならないと。
今日ずっと議論がありますけれども、今回の法案で定めているのは、いわゆる罰則とか勧告とか命令ではなくて、指導、助言、情報提供を行うということであります。他方で、ハードローによるAIリスクへの対応は、既存の個別の法令の対応に委ねられている。これは今日もずっと議論がありました。
そこで伺いますけれども、そういう決定に至ったプロセスが大事だったというふうに思っておりまして、既存の法令による個別の対応については、各所管省庁で具体的にどのような検証を行ったのかということをまずお聞きしたいのと、また、その上で、AI技術、急速な進展があるということ、これも周知のとおりでございますけれども、いざこの法案を、また既存法で対応していこうとすると、事前の想定を超えていくような事案、事象も生起をしてくるんだろうというふうに思っております。したがいまして、実際のハードローによるAIリスクの対応に向けて、司令塔たるAI戦略本部と各所管省庁でしっかり責任分担をしていただく、確実かつ迅速に判断、対応できるよう、お互い見合ってぽとんと落ちるようなことがないように、具体的な体制、またオペレーション、構築をしていただきたいと考えますけれども、現在の政府のお考えを伺いたいと思っております。
○徳増政府参考人 お答えいたします。
まず最初に、二〇二三年、令和五年の年末から、内閣府において、各省庁の協力も得つつ、各主要業種におけるAI導入の実態であるとか規制の状況に関する調査を行っております。
その後に、二〇二四年、令和六年夏に、AI戦略会議の下にAI制度研究会を設置をしまして、法制度の要否も含めて検討を進める中で、AIに関して想定される様々なリスクに対して、適用可能な既存法令としてどのようなものがあるかを関係省庁と相談をし、整理をした次第です。その結果については、今年二月に公表されました同戦略会議、同制度研究会の中間取りまとめにおいて掲載をしているところであります。
また、リスク対応の体制については、AI本部の業務として、AI基本計画の案の作成のほか、AIの研究開発、活用に関する重要な施策の企画立案、例えばでありますが、情報収集、調査などとなりますけれども、さらには総合調整など、多岐にわたることが想定されております。
これらを確実に実施するためには、委員御指摘のとおり、関係省庁の連携、役割分担が不可欠でありまして、しかも、それをスピーディーに行うことが重要であり、例えば、調査について関係省庁による業務フローを明確化するなど、体制やオペレーションをしっかりと考えてまいりたいというふうに存じます。
○河西委員 ありがとうございます。
一昨年は実態調査を行い、そして昨年は整理をされたと。具体的なオペレーションとか責任の分担はこれからということでありますので、非常にそこが大事になってきます。実効性の確保をきちっと担保していただきたい、このように思いますので、よろしくお願いを申し上げます。
続きまして、クリエーターでありますとか、著作権の関係をお伺いをしたいというふうに思っております。
現行の著作権法では、AIによる機械学習、これは、思想又は感情の享受を目的としない場合には自由であるということでありますけれども、生成されたコンテンツが既存の著作物に酷似する場合、いろいろな考え方、プロセスがあるんですが、その場合は著作権侵害に当たる可能性があるという整理がなされております。
また、いろいろクリエーターの方に私はお伺いをしたんですけれども、著作権侵害に至らなくても、例えば、イラスト業界とかですと、生成AIを使った方がどんどんどんどんどんどん新しいイラストが出てきますので、先ほどジブリの話も菊池委員からもありましたけれども、従来のクリエーターが市場から事実上パージされているような状況もあるそうであります。要は、ネット上でイラストを売るようなサイトがあって、でも、全部もう生成AIばかりのイラストで、新人が出しても全然、要するに目につかない、こういうような状況で、結局断念を、夢を諦めてしまったというようなお話も伺いました。
また、これは日本新聞協会も警鐘を鳴らしておりますけれども、今、いわゆるゼロクリック検索が普及をしていると。私も、生成AIで調べたときは、なるべくその出典先のリンクをクリックするようにしているんですけれども、それを全部やっていると今までと同じなので、正直、クリックしても一割ぐらいかなという思いがあって。要は、ページビューがないわけです。ですから、これからウェブ上の広告業というのは多分、相当難しい局面を迎えるのかなというふうに思っておりますけれども、いずれにしても、新聞協会からは、AI事業者が報道機関の許諾を得ないまま記事を利用するということで、これは独禁法の優先的地位の濫用に当たるのではないか、こういう御指摘もあるわけであります。
こういうような関係、しっかりバランスを取って対応していくものというふうに思っておりますけれども、その上で、コンテンツを生成した主体がAIか人間か識別しにくいコンテンツについては、ディープフェイク対策も視野に入れて、AIを利用したコンテンツはその旨を明示をする。既にそうなっているSNS等もあるわけでありますけれども、これは、できれば、本法案を踏まえた指針とかガイドラインに明記をして、場合によっては、今後、事業者に義務づけをしていくことも検討していくような局面があるのではないか、こういうふうに考えますが、現状の政府のお考えをお伺いをしたいというふうに思っております。
○徳増政府参考人 お答えいたします。
ディープフェイク対策の一つの方法として、AIで生成された画像に、人の目では判断できないが、あるアプリケーションを用いるとAI生成物であることを識別できる、いわゆる電子透かしの技術があります。本技術は開発途中ではありますが、AI開発者に対して、画像を生成するAIに本技術を導入するよう、本法案に基づき整備する指針等によって働きかけることが考えられる次第であります。
また、委員御指摘のAI生成コンテンツにその旨を表示させるか否かについては、仮にそれを実施しようといたしますと、専らAIのユーザーの側に表示をお願いすることになると考えられます。そうしたところ、全てのコンテンツに表示を求めるというのは、やや難しい側面もあるかなというふうに思うところであります。
委員御指摘の点、まさに重要な御指摘であると思います。若干、幾つか論点があると思いますので、引き続き検討課題とさせていただければと存じます。
○河西委員 是非、検討をお願いしたいと思います。
確かに私も、今回の質疑、AIを使った部分もありました。じゃ、それを必ず宣言しなければいけないのかと問われると、そういったこともちょっと現実的ではないのかなというふうにも思っておりまして、別にこの質疑を作らせたわけじゃないんですけれども、情報収集に非常に役立つわけであります。
他方で、我が党も提言していますが、例えば、我が国発のオリジネータープロファイルとか、起源情報を表示していくもの、これもウェブブラウザに標準搭載されていくというようなことも非常に重要かと思っておりますので、先ほどの電子透かしも併せて、そういうような何らかの枠組みをつくって、少しでもイノベーションとリスクの対応のバランスを取っていただきたいというふうに思いますので、よろしくお願いいたします。
続きまして、AI活用の促進の方に少し話を移していきたいというふうに思っております。
今回の法案の第四条の2に、このような記載がございました。「国は、行政事務の効率化及び高度化を図る」、今回このように明記をしていただきました。非常に大事なことかと思います。そのために、このAI関連技術の積極的な活用を進めるというふうに明記をされております。
このAI活用による行政事務の効率化、どの程度行政コストの縮減を図ることを目指しているのかということを、現在のお考えをお伺いしたいと思います。
また、今回の法案には、地方公共団体における行政事務の効率化というのは、さして明記はされていないわけであります。ただ、地方自治体に行きますと、例えば離島とかですと、東京にも離島はありますので私は伺いますが、離島ですので、要するに、島に運ぶ、今、運輸コストがかかるので、島というのは物価が高いわけです。本当は、補助金を申請すればある程度縮減できるんですけれども、その補助金を申請する職員すらいない、こういうようなお話を伺います。
ですので、地方自治体こそ、このAIの活用のニーズ、必要性は高いと思いますけれども、この辺りも御見解をいただきたいと思っております。よろしくお願いします。
○徳増政府参考人 お答えいたします。
政府においては、AIを適正に活用しつつ、事務の効率化、高度化を図る方針でありますけれども、現時点ではユースケースを積み上げているような段階であります。定量的な評価、例えば具体的な行政コストの縮減効果などについては、現時点では残念ながら算定できていない状況です。
地方公共団体におけるAI導入は、地方公共団体の自主性による部分がありますけれども、委員から御指摘いただきましたとおり、地方の方が人手不足の課題も抱えておりますので、AI活用のニーズ、効果も大きいという可能性があるというふうに考えています。
そのため、例えば、総務省においては、自治体におけるAI活用・導入ガイドブックを公表して、他の自治体の先行事例や導入手順を紹介をして、自治体のAI導入を支援していると承知をしています。
引き続き、地方公共団体にも様々な情報提供等を行いながら、政府と地方公共団体が連携をして、AIの活用を進めてまいりたいと存じます。
○河西委員 是非、推進方、よろしくお願いいたします。
続きまして、大臣の方にお伺いしたいと思います。
この行政事務の効率化によって、どれぐらいの財源が捻出できるか。そのインパクトはまだこれからということでありますけれども、私、大事だと思うのは、ここで捻出された財源というのは恒久財源であるということでありまして、ずっと使えるということであります。
デジ庁の平大臣なども、国家公務員制度の方も所管されておりますので、例えば、定員に足りなくてもその分をAIで効率化して、その足りない定員の中で回していくんだと、本当にそのとおりだなというふうに思うわけであります。
その上で、最近、経営者の方とお話をしても、AIに代替できる業務はいいんだけれども、代替できない部分が大事だよね。その代替できないところの職種の賃金が実は結構全産業に追いついていないという問題が、非常にこれは深刻であるという、本当にそのとおりだというふうに思います。
そういう考え方から、本法律案には、そのことが射程に入っているかどうかは別にして、目的に「国民生活の向上及び国民経済の健全な発展に寄与すること」、このように明記をしていただいております。
したがいまして、私は、AIを活用して捻出できた恒久財源については、例えば介護福祉士、最近は自公の間で、特定最低賃金を導入してはどうかということを両幹事長で意見交換、提案がなされていますけれども、あるいは保育士、あるいは幼稚園の教諭等、公定価格で処遇が決まって、かつAIで代替不可能なエッセンシャルワーカー、この方々への処遇改善にこの恒久財源を使っていくという考え方は、政策上非常に重要なコンセプトでありまして、分かりやすいんじゃないかと。先ほども、人口減少時代の中で模範的なAI活用をしていくというようなお話がありましたけれども、是非こういった方向性、関係省庁と連携をいただきまして、政府内で御検討いただきたいと思いますけれども、大臣、いかがでございましょうか。
○城内国務大臣 お答えいたします。
AIの普及によりまして、従来にはない新しい職種や産業が創出されたり、AIエンジニア等のAI関連の職業に対するニーズが増加する一方で、現在の仕事の一部が代替されるなど、労働環境に大きな影響を及ぼすことが想定されておりますが、この点については、先ほど国民民主党の石井委員とのやり取りでも申し上げた次第でございます。
そうした中、御指摘のとおり、介護福祉士あるいは保育士、幼稚園教諭など、こうしたエッセンシャルワーカーは、御指摘のとおり、AIでは代替することが大変難しい職種であることはまさに御指摘のとおりだと私も考えております。
いずれにしましても、今後想定されます労働環境の変化への対応につきましては、河西委員御指摘いただいた点も一つの有益な案となり得るのではないかと個人的には受け止めております。いずれにしましても、こうした考え方も含めまして、様々な観点から検討することが必要だというふうに考えております。
○河西委員 大臣、ありがとうございます。
私も、実はどれぐらい行政コストが縮減されて、エッセンシャルワーカーの方々が全産業平均にキャッチアップするためにどれぐらい必要なのか、はっきり言って全然足りないんですね、兆単位とと数千億単位ぐらいの話ですので。ただ、そこに使っていくということは非常に大事なのかなというふうに思っておりますので、まさに、人間中心の持続可能なAI社会というコンセプトで今後国づくりを進めていくことが大事なんじゃないかと思っておりますので、是非よろしくお願いを申し上げます。
続きまして、産業界に絡んでお伺いをいたします。
今急速に普及しつつあるのがAIエージェントであります。チャットGPTもそうなんですが、プロンプトを入れてとかというよりも、勝手に提案をしてくれたりとか、勝手にマネジメントしてくれる、今こういう段階に入っております。例えば、人間に代わって受発注あるいは契約なども行えるAIエージェント、これによって業務フローは抜本的に変わってくるんだろうというふうに思っております。
他方で、DXが進めば、また効率化が進めば進むほど、一度システムがダウンすると、その打撃は広範囲かつ深刻になる可能性が大きいわけであります。
先日も、東京も多摩地域が関係するので、四月六日未明にNEXCO中日本のサーバーがダウンいたしまして、スマートインターチェンジが出られない、大渋滞で出られないから何とかしてくれ、中野大臣に何とか言ってくれみたいな電話を私も地方議員さんからいただいて、ちょっとやり取りをしたんですけれども、結局開放までは十二時間ぐらいかかってしまったと。
ですので、やはり事業者がAIエージェントを導入するに当たって、サイバーセキュリティー対策、これはもちろんのことだと思いますけれども、代替システムをどうするのか。
あと、実は、AIエージェントにやればやるほど、例えばこれを二十年、三十年やっていくと、人間にノウハウって残らないままAIエージェントがずっとやっていく、そういうサイクルになってしまうわけであります。新たなBCPの策定の考え方も必要なんじゃないかというふうに思っておりますけれども、これは政府参考人に御見解をいただきたいと思っております。よろしくお願いします。
○徳増政府参考人 お答えいたします。
事業者がAIを導入する際のリスクとして、一般的には、AIが誤情報や偽情報を出力するといったリスクが考えられます。一方で、御指摘のとおり、導入したAIシステムの活用が進んだ後、浸透した後に、当該AIシステムの出力の傾向が急変するであるとか、当該AIシステムが、システムのサービスが停止をする、AIシステムが停電で停止するといったような事態が生じると、大きな被害が生じかねないというふうに考えています。
AIの導入に関するリスクはその導入の仕方によって千差万別であることから、事業者ごとにリスクを特定して多面的に評価をし、事業者ごとに事故時の対応等を含むAIガバナンスポリシーを策定、実施することが重要であるというふうに考えています。このことは、法案に基づいて整備をいたします予定の指針の中に盛り込むことも含めて検討してまいりたいと存じます。
○河西委員 是非、指針の方に盛り込んで、災害時の対応も含めて万全の準備を期していただきたいと思っております。
済みません、今日は中企庁に来ていただきました。よろしくお願いいたします。
このAIエージェントなんですけれども、これは、一言で言うと規模の経済になっていくんじゃないかという指摘が様々されております。自動化する範囲とか量が大きければ多いほどメリットが出ますので。かつ、例えば、いきなり注文が二倍来たと。今までは、人間がやっていた場合には、例えば製造ラインとかも二倍にできませんのでできないわけでありますけれども、AIの場合は、その供給力の拡張性、スケーラビリティーが一気にぐんと上がっていくということでありまして、何を言いたいかというと、やはり大企業の方が有利になっていくんじゃないかというようなこともあります。
その上で、中小企業の皆さんもこれから、中小企業の賃上げ、先ほども下請法の本会議の登壇がありましたけれども、中小企業の賃上げというのは我が国の経済政策の一丁目一番地でありますので、このAIエージェントを導入しようとする中小企業に対してしっかりと支援を行っていかなければならない、こう考えておりますけれども、現在の中企庁の取組をお伺いしたいと思っております。
○岡田政府参考人 お答えさせていただきます。
委員御指摘のとおり、中小企業、小規模事業者が、AI等も活用しながらデジタル化、DXを推進して生産性向上を図っていくということは非常に大事だと考えております。
このため、経済産業省におきましては、ITツールの導入を支援するIT導入補助金を措置しているところでございますが、こちら、AI製品の導入のために活用していただくことも可能となってございます。また、令和六年度の補正予算からは、IT活用の定着を促すために、導入後の活用支援も新たに対象化しておりまして、先月、申請受付を開始したところでございます。
今後も、こういった取組を通じまして、AIを含めた中小企業のデジタル化、DXの促進に取り組んでまいりたい、このように考えております。
○河西委員 ありがとうございます。
AI、高度化していけばいくほど、単価もどんどんどんどんすごいスピードで高くなっていくということもありますので、今後の、予算の在り方とかも含めて、また制度の在り方も含めて、これはこれで議論をさせていただきたいと思っております。
済みません、もしかしたら最後の一問になるかもしれませんが、AI人材の育成についてお伺いをしたいと思います。
今回の法案十四条にも、AI関連技術また基礎研究に係る人材の確保、養成及び資質の向上、このことがうたわれております。
経済産業省が二〇一九年に公表した調査でありますけれども、我が国のAI人材、これは、本年、二〇二五年には最大で八万八千人不足をするのではないか、二〇三〇年には最大で十四万四千人不足をするのではないかという統計があります。
他方で、OECDの調査がありますけれども、一つは国際成人力調査、あるいは生徒の学習到達度調査、PISAと呼ばれますが、これはいずれも、読解力とか数的思考力、例えば国際成人力調査でありますと世界二位であるということ、また、生徒の調査についても、例えば科学的リテラシーも世界二位であると。だけれども人材は不足しているということであります。
やはり、これは能力の問題というよりも、能力やスキルが適正に処遇に反映されていない、要は、スキルをアップすれば処遇に反映されるという社会がまだまだ進んでいないということが根底にあるのかなというふうに思っております。
他方で、実はEUは、規制を進めているというイメージがあるんですが、人材育成は非常に戦略的にやっております。ARISAプロジェクトというのが二〇二二年から始まっておりまして、これはアーティフィシャル・インテリジェンス・スキルス・アライアンス・プロジェクトというんですけれども、その中で、欧州AIスキル戦略というのを策定をしております。これは、AIの専門職、あと企業の経営者、あと政府の政策立案者、この三つのグループに対して、認証制度とかコアカリキュラム、あるいは講師の養成プログラムで、これを提供しながら、面白いのは、AIのスキルはスピードがすごく速いので、こういったコアカリキュラムとか認証制度を一年単位で更新するセクションと二年単位で更新するセクションと二つ、余り日本はこういうのがないと思うんですが。
こういうようなことを参考にしながら、我が国も、こういったAIスキルに関する認証制度とか、是非検討していただいて、ビッグテックが先導するのではなくて、主体的に、また戦略的に、このAI人材を確保、育成していく、そういった仕組みを是非検討していただきたいと思いますけれども、大臣、いかがでございましょうか。
○城内国務大臣 御指摘のとおり、日本に優れた人材が多数おりまして、数学等の学力も大変高いと承知しておりますが、AI産業におきましては、基礎研究や理論研究を行う人材だけでなく、データの収集や整理、データセンターやクラウドの活用など、様々な知見、スキルを持った多様な人材が必要だということは御指摘のとおりであります。さらに、研究開発の内容や目標が次々と変化しているところでありまして、適材適所の人材配置も必要であります。
これまで、政府としては、AIを活用した人材を育成するために、例えば、大学等の優れた教育プログラムを政府が認定する数理・データサイエンス・AI教育プログラム認定制度の構築や、次世代AI分野の若手研究者、博士課程学生の育成を行う次世代AI人材育成プログラムなどの取組を進めてまいりました。
本法案が成立した暁には、内閣府が司令塔となりまして、関係省庁、地方公共団体、研究開発機構、活用事業者と緊密に連携協力し、また、河西委員が御指摘されましたヨーロッパの状況なども参考にしながら、本法案十四条にもありますように、AI人材の育成、確保の取組を更にしっかりと推進してまいりたいと考えております。
○河西委員 ありがとうございます。
時間が来たので終わりますけれども、私は、高度なAIを使っていこうとすればするほど、こういう高いスキルと、あと、やはり高い倫理観を備えた、まさに人間中心の社会をつくっていく人材が必要だと思っております。我が党も全力で取り組んでまいりますので、是非よろしくお願いをいたします。
以上で終わります。ありがとうございました。
○大岡委員長 次に、上村英明君。
○上村委員 れいわ新選組の上村英明と申します。
私は、ある意味では天然知能なので、なかなか切替えがうまくいかないんですけれども、能動的サイバー防御からAIの話に移って、城内大臣に、早速さくさくとお尋ねしたいと思います。
まず、一般に、政府の資料によっても、日本はAIの開発とか活用が遅れているというふうに言われています。アメリカや中国、ドイツが比較に挙がっていて、もちろんグーグルとかマイクロソフト、オープンAIを生み出したアメリカに遅れているというのは分かるんですが、中国に対しても遅れたという評価をされています。
かつて、これも先ほどいろいろな映画の話が出たんですけれども、私のイメージからすると、日本というのはやはり技術立国だったと思うんですね。ソニーとかホンダとか、それからトヨタも含めて、そういうふうな、技術ではそんなに他の先進国に引けを取らない。
私の認識しているところでは、一九九五年に科学技術基本法というのが制定されております。この基本法の中で、重点分野として、ナノテクノロジーとかライフサイエンスという分野が挙がっているんですけれども、同時に、情報通信分野というのが、この九五年の法律の中で、これからイノベーションを図っていくための重点分野だというふうに言われております。さらに、AIに関する基本戦略の起点としては、二〇一六年に人工知能技術戦略会議というものが設置されております。
こうした、ある種の歴史があったにもかかわらず、この二〇二五年に、我が国はAIの開発とか活用が遅れているという評価が下る理由は何だというふうに政府としてはお考えか、お尋ねします。お答えいただければありがたいです。
○城内国務大臣 御指摘のとおり、AIの開発、利活用について、例えば米国等が先行している状況にあることは御指摘のとおりで、これは否定できない事実でございます。
我が国のAI開発の遅れの主な理由としては、例えば、AIの研究開発に大規模な資金や人材が迅速かつ十分に集まってこなかったこと、あるいは、グローバルなビジネスモデルを描けていないことや、AI用の計算資源が不足していること、そしてIT人材が不足していること、また日本語特有の、マイナーな言語で同音異義語が多い、AI学習が難しいなど、データが少ない、そういったことが考えられております。
また、AI活用の遅れの主な理由としては、AIの持つメリットが不透明であったため、我が国の経営者が十分投資してきていない、AI導入を主導する人材が不足している、また、日本人の慎重さと申しますか、誤った出力をするAIや個人情報が収集される可能性があるAIは使いたくないという意識が一般の皆様の中にある、こういったことが挙げられます。
これまで策定してまいりました日本のAI戦略等に関しましては、まだ評価できる段階ではございませんが、強いて申し上げれば、計算資源の確保やスタートアップ支援等によって、日本語性能では外国製AIに匹敵する日本製AIが登場するなど、政策の効果も実は少しずつ出始めているところでございます。
いずれにしましても、生成AIの登場もございまして、AI技術の重要性は一層高まっており、また国際競争も激しくなっておりますので、これまでとは異なる次元で日本のAI開発力の強化、AI活用の促進を図ることが重要でありますことから、今般の法案を提出しているところであります。
以上です。
○上村委員 今のお話を伺いますと、目標は設定したけれども実際には政策が追いつかなかったということが言えるのかというふうに思います。
次に、先ほどから皆さんリスクに関してたくさんお話をいただきまして、何か、AIが裏切っちゃうとかだましちゃうとかというのは、私も聞いていてすごいショックを受けた段階まで来ているというふうに思うんですけれども。
政府委員の方に簡単にお尋ねしたいんですけれども、AIの便益とリスクに関してどういうふうに考えればいいかというのを整理していただければありがたいと思います。
○渡邊政府参考人 AIの便益とリスクにつきましてお答えを申し上げます。
まず、AIの中でも、特に生成AIの性能が急速に進歩しておりまして、自然な文章の作成のみならず、プログラム、画像、音声等の作成も可能になっています。これによりまして、資料の要約ですとか、翻訳ですとか、議事録の作成、あるいは一般的なプレゼン資料の作成ですとか、問合せへの対応ですとか、そういった多様な業務へのAIの活用が可能となっておりまして、生産性の向上、働き方改革、労働力不足の解消といった様々な便益が期待されております。
一方で、AIをめぐるリスクに関しましては、予測は大変難しいところはございますけれども、例えば、AIによるコンピューターウイルスの作成ですとか悪質な偽情報の作成など、安全保障上のリスクあるいは犯罪の巧妙化等のリスクが考えられます。また、AIによる偏見、差別情報の流布などのリスクも考えられますし、先ほど石井委員の方から御指摘があったんですけれども、人間同士のコミュニケーションが減ってしまうのではないかとか、あるいはいわゆるAI依存症のようなこともリスクとしては考えられるというふうに考えております。
○上村委員 ありがとうございます。
今、政府委員の方から、AIの便益では効率化とか生産性の向上という言葉が聞かれたんですけれども、私も若干古い人間なので、そういう話を聞くと、一九九〇年代、小泉内閣のときだと思うんですけれども、アメリカからある種の成果主義というものが日本に導入された時期がございます。
この成果主義というのは何かというと、それまでの日本のビジネスモデル、例えば年功序列であるとか終身雇用というものが余り効率よくないと。その効率とは何かというと、コストをカットしないと企業はもうけが増えないじゃないかということで、こういうモデルが導入されたことがあります。
しかし、こうした成果主義のモデルというのは、この時期をちょっと超えた段階でやはり限界に達したというふうなことを言われております。
どういう理由からかといいますと、短期の成果に走りやすい、まず身近なところで成果が上がればそれはオーケーということになってしまう。それから、これは実は労働管理の中の人事考課に使われたんですけれども、御存じのように、日本のように人事考課が元々余りなかったような社会では、公正な人事考課ができるかどうか。これは、ここにいらっしゃる皆さんそうだと思うんですけれども、こいつにだけは人事考課させたくないよみたいな人が上司にいれば、人事考課をやっても逆にマイナスになっちゃうということもあり得る。それから、ある意味では、スタンドプレーが上手な人が成果が上がってしまう。そして、労働者の分断とか、むしろ移動が頻繁にできるようになれば離職率が増加するなど、こういうことがあり、どちらかというと成功しなかったという評価を受けられるのではないかなというふうに思います。
効率化とか生産性の向上という目標をどういうふうに考えればいいかというのが、ある種、今の時代の重要なポイントではないかなというふうに思います。
これでいけば、例えば、生産性の向上が社会に貢献する、さっき石井委員がおっしゃったように、私が、例えば正規の労働者として五日四十時間働いていたときに、AIが導入されたので私の仕事が三日二十四時間で済むということになります。その条件の下で従来の賃金と社会保障が維持されていけば、生活の向上です。ところが、企業が、例えば私が三日二十四時間従来の仕事をすればいいということになれば、当然、次の判断は何かというと、非正規雇用に移されるとか、ある意味では解雇されるということになる。
そういう意味では、この生産性の向上というのは、労働分配をどう考えるかというビジョンと一緒に考えていかないと、やはり、人を排除する、先ほど河西委員からもありましたように、人を排除するのではないかということにつながっていくのではないかというふうに思います。
新しい仕事が創造されるということも言われていますけれども、私なんかは、本当でしょうかと。どうしてかというと、僕らの世代には多分新しい仕事は回ってこない。これは、いろいろな技術が革新されれば、新しい技術についていける世代はオーケーかもしれないけれども、ついていけない世代は世代ごと排除ということになります。少子化の社会に貢献すると言われていますけれども、これも、少子化、少子化と言われている割には非正規雇用の労働者が増加している。何で正規雇用が増えないのかという問題を考えていくと、やはり労働の構造を、一緒にこの社会というのを考えていかないと、この生産性の向上という言葉の意味が結構むなしくなるんじゃないかなというふうに思うんですけれども、いかがでしょうか。
○渡邊政府参考人 ただいま委員から大変深い問題提起をしていただいたと思っております。
IT技術とかデジタル技術が人間を代替すれば、それは見た目にはデジタル革命が成功したということになるわけですけれども、それによって人の雇用が減ってしまうとか、先ほどの、人のコミュニケーションが減ってしまうということは、やはり好ましくないというふうに私は考えております。
そういった意味では、デジタル技術の普及とともに、やはりそれに伴って新しい仕事も増やしていくということも重要なのではないかというふうに考えております。
先ほど、九〇年代のIT革命の例もありましたけれども、今回、AI革命と呼んでいいのかどうかはあれですけれども、今後、AIの開発導入によって、もちろんAIが人に代わる部分もあるんですけれども、まず、AIの開発ですとかAIの導入をやっていく、それを推進していく人というのは増やしていかなきゃいけないと思いますし、また、AIを活用した新しい産業というのがやはり出てこなければいけないというふうに思っております。
今回の法案の中でも、事業者の責務として、新しい産業の創出というのを明記しているところでございまして、是非、官民一丸となって、新しい産業の創出、雇用の創出に取り組んでいきたいというふうに考えております。
○上村委員 ありがとうございます。お考えいただけるような御答弁だったというふうに思うんですけれども。
新しい産業という話だけではなくて、これは先ほどの河西委員の御発言にも関係するんですけれども、例えば、能動的サイバー防御をやりましたので、名古屋港の積荷の作業のところがサイバー攻撃に遭ったんですけれども、三日間で回復しました。なぜかというと、AIを使っていないときの労働のノウハウを知っている人たちが残っていたからなんですね。ですから、AIが、あるいはサーバーがダウンしても、どういうふうに手続をやればこの作業が回るかということを知っている人材が残っているということが、こうした回復の、レジリエンスの、非常に効率的な回復につながったということがございます。
その意味でいけば、新しい仕事だけではなくて、本来我々の社会が持っていた技術力あるいはノウハウというものを同時にキープしていかないと、まさに何かあったときの回復はできないということがあるのではないかなというふうに思います。
ちょっとこれは通告にないので申し訳ないのですけれども、さっきから聞いておりまして、実は一つだけ。
今までリスクを皆さんいろいろおっしゃったのであれなんですが、私の個人的な経験から一つリスクの話をしますと、AIが人間を超えるということがあったんですけれども、ちょっと心配しているのが、人間の知能の方が低下するんじゃないかということを思っています。
何かというと、私は大学で仕事をしていたんですけれども、今大学で何が問題になっているかというと、学生がチャットGPTを使って論文を書くので、全然勉強していないということがございます。同じようなことを言えば、友人が出版社にいるんですけれども、本を出版しようと思って原稿が送られてくるんだけれども、それがオリジナルの原稿かどうかをチェックする仕事が物すごく大変だということがあります。
そういう意味でいけば、逆に、知識を簡単に使える社会が広がってしまえば、むしろ知識のレベルが落ちてしまうという、人材の確保どころか、人材がいなくなるという心配があるのではないかなということも思うんですけれども。
いろいろ、便益の想定の問題とか、ちょっとプラスでリスク管理の問題とかをお尋ねしてきたんですけれども、こういう問題に対して城内大臣はどういうふうにお考えかというのをお聞かせください。
○城内国務大臣 私も個人的に、判こ議連の会長として、デジタル化を阻止するとんでもないやつという烙印を押された経緯がございますからこそ、やはり、デジタルも大事ですけれどもアナログも大事でございまして、例えば脳科学的にも、デジタルよりも紙で調べたり調査した方が脳科学の分野で記憶に定着しやすいということが既に証明されております。
事ほどさように、極端に、いわゆるAIに頼り切って、AIに全て、適正な回答を出す、これは、スピードは当然速いでしょうけれども、委員御指摘のとおり、人間は何も考えずに、記憶に残らないとか、まさに知能が劣化してくるというようなことは、恐らく、もう少し突き詰めて、脳科学で科学的に分析すればそういう答えが出てくるのではないかなと思います。
事ほどさように、やはり極端に走るのではなくて、AIを適宜活用しながらアナログ的な手法も大事にするということが、私はやはりバランス感覚が重要じゃないのかなというふうに考えております。
○上村委員 ありがとうございます。
その意味でいくと、午前中に三木委員が御指摘になったように、AIの研究開発あるいは活用に関する推進法ではなくて、やはり基本法として、我々のバランスは、どんな中でバランスを取るべきなのかというのがもっと明確な法案であるべきじゃないかなということを最後に指摘して、私の質問を終わりたいと思います。
ありがとうございました。
○大岡委員長 次に、塩川鉄也君。
○塩川委員 日本共産党の塩川鉄也です。
AI推進法案について質問いたします。
石破政権は、世界で最もAIの研究開発、実装がしやすい国を目指すと掲げております。
そこで、入口での確認ですので政府参考人でも結構なんですが、今回の法案というのは、AIの研究開発、活用推進のための法律であって、AI規制の法整備を行うものではないということでよろしいんでしょうか。
○渡邊政府参考人 お答えいたします。
今御指摘のとおり、これは規制法ではなくて、推進のための法律でございます。ただし、その推進のためには、リスクへの対応もしっかりやっていくということでございます。
○塩川委員 リスク対応について、法整備を行っていないということであります。
ただ、政府の法案概要資料では、法律が必要な理由として、多くの国民がAIに対して不安を感じていることを挙げているわけです。
紹介されているAIのリスクや安全性に関する意識調査を見ると、現在の規則や法律でAIを安全に利用できると思うと答えたのは、日本では僅か一三%。一方で、AIには規制が必要だと思うとの回答は七七%にも上っております。現状は、AIを安全に利用できる環境にはなく、規制が必要だと多くの国民の皆さんが考えておられる。これが国民多数の声だということであります。
そうしますと、こういった国民の声に応えるためにも、この法案において、AIに対するやはり法規制が必要なんじゃないでしょうか。
○渡邊政府参考人 お答え申し上げます。
規制という言葉の定義をどう捉えるかということでございますけれども、例えば、罰則つきの厳しい規制ももちろん規制ですし、いわゆる自主規制といいますか、事業者による自主的な取組を促して自主的にやっていただく、これも、ガイドライン等に沿ってやっていただくのも、自主規制という言葉がございまして、どう対応していくのかというのは、その国、地域のそれぞれの法体系ですとか、あるいは過去の商習慣ですとか、いろいろなところから決まってくるものというふうに考えております。
EUは、そういう中では規制法でやっておりますけれども、アメリカはまた違う形でやっておりまして、日本としては、先ほど来申し上げておりますとおり、イノベーションとリスクの両立、そして新しい技術に適応していく。それで、どうしても予測できないものが多いものですから、それをいろいろな形で規定をするというよりはフレキシブルに対応していく、そういう形で考えた方が、むしろふさわしいのではないかというふうに考えているところでございます。
○塩川委員 ただ、こういったアンケートにおきましても、やはり、現在の法律では安全に利用できないと思っている方々が多数だというときに対応した、そういった中身に本来すべきなんじゃないのかということが問われていると思います。
AIの活用推進に遅れることなく、必要な規制、ルール作りを行って、権利侵害や悪影響を抑える必要があると思います。今紹介があったような、EUでは、AIのリスクに応じて、禁止、第三者機関による適合性審査等の義務づけ、AIを利用していることの表示義務、規制なしの四段階に分けて規制するAI規則を、二四年八月に施行しております。日本でも同様に、AIのリスクに応じた法規制を行うべきだと考えます。
法案の内容についてお尋ねします。
法案の第十二条は、国が、データセットその他の知的基盤を研究開発機関とAIの活用事業者が広く利用できるように整備し、共用を促進するとしています。
国が整備するデータセットその他の知的基盤についてお尋ねしますが、条文では、知的基盤の定義として、科学技術・イノベーション活性化法の第二十四条の四を引用しておりますが、この知的基盤の保有者には、大学や研究開発法人も含まれるということでよろしいでしょうか。
○渡邊政府参考人 知的基盤についてのお尋ねでございますけれども、これは、大学ですとか研究開発法人も含まれるというふうに想定をしております。
また、現在進められている取組といたしましては、情報通信研究機構がAI学習用の高品質な日本語データを整備、提供しているほか、産業技術総合研究所が音声、行動データ、大気環境の情報など様々なデータセットを公開するなどの取組が行われております。
今後は、デジタル庁で実施しております政府保有情報のオープンデータ化の取組も含めて、AIの研究開発及び促進のため、知的基盤の整備等を促進してまいりたいと考えております。
○塩川委員 NICT、産総研の話ですとか、デジ庁のオープンデータの話もありました。国がデータセットとして整備する情報には、国の情報はもちろん、このような大学や研究開発法人の情報も含まれているということであります。
そこで、このデータセットとして整備される情報は、これはオープンデータに限定をされているんでしょうか。
○渡邊政府参考人 本法案では、データセットをオープンデータのみに限定するということではございません。現在政府が保有している情報をデータセットとしてホームページ上で公開し、AIの研究開発などの目的で広く利用が可能となるよう取組が進められているというふうに承知しております。
○塩川委員 オープンデータに限定されていないということであります。政府が保有する情報の中には個人情報も当然含まれるわけですけれども、オープンデータに限定されないということは、個人情報を含むものもデータセット化されるということでしょうか。
○渡邊政府参考人 お答え申し上げます。
オープンデータでないものというのは、オープンじゃないということなんですけれども、これは別に機微情報を含んでいるからオープンではないというだけではなくて、元々、オープンにすることを想定していなかったというか、そんなに機微ではないんだけれども、これは誰かから使われるニーズがないだろうみたいな、そういうものもあったというふうに考えております。
ただ、一般的には、デジタル庁から公開しておりますデータセットにつきましては、個人情報は含んでいないというふうに認識しております。今後、研究開発及び活用の促進のためには、データセットとして公開する場合、もし個人情報とか機微な情報を含むような可能性がある場合には、これは扱いには十分に注意しなければいけないというふうに考えております。
○塩川委員 個人情報を含むものについては十分注意しなければならないというのは、これは何らかの対策を取るということですか。
○渡邊政府参考人 午前中も御答弁申し上げたことではございますけれども、政府として、AIを適正に調達をして活用していく、そういうガイドラインの検討をしております。そういう中でも、データの扱いというもの、あるいは、政府はデータ戦略も別途進めておりますけれども、そういう中でも、データの適切な扱いというのは考えてまいりたいと思います。
○塩川委員 個人情報、ビッグデータを活用するということであれば、匿名加工をするとか、匿名加工情報の扱いということなども当然あるということだと思いますけれども。
この間、匿名加工情報の提案募集制度を政府として行ってまいりました。そういった具体の事例として、独立行政法人の住宅金融支援機構から民間の住信SBIネット銀行に対して情報提供がされた。ですから、ローンの、組んでいる方の情報ですよね。そういった情報の中には、年収ですとか家族構成ですとか、職業や郵便番号などの百十八万人分の加工された個人情報が、住宅ローンのAI審査モデルの構築のために、本人の同意もなく提供されていたわけであります。
匿名加工しているから個人は特定されないんだという話ですけれども、しかし、郵便番号となると、実際、枝番までいけば十数軒というところなんかもあるんですよね。それをどういうふうに処理しているのかによっては、ほかの情報と組み合わせれば個人が特定されかねない、そういった中身のものもあるということに対して、これは慎重な対応というのが求められていることであります。
本案は、データセットという言葉を法律上初めて定義をし、国や大学、研究開発法人が保有する広範な情報を、AIで利用しやすいようにデータセットとして整備をし、AIを利活用する民間事業者に提供することを促進する法整備であります。
第五条では、地方公共団体に対し、AI技術の研究開発及び活用の推進に関し、地方公共団体の区域の特性を生かした自主的な施策を策定し、実施する責務を有すると責務規定を盛り込み、自治体が持つ情報もデータセット化するよう迫るものとなっております。自治体にこそ本当に生の個人情報が大量にあるということをやって、その扱いについての慎重な対応というのは当然求められることだと思います。
城内大臣にお尋ねいたします。
政府は、データは競争力の源泉だと位置づけて、個人情報を含む情報の利活用を推進をし、データ標準化などを進めております。法案は、これを更に進めようというものであります。プライバシー権の侵害などの危険性を高めるものになりはしないのか。その点についてお答えください。
○城内国務大臣 お答えいたします。
本法案は、AIの研究開発及び活用の推進のためのものでありまして、個人情報の保護を含む既存の法律の考え方を変えるものではございません。
個人情報やプライバシー権の保護につきましては、最高法規である憲法や、既存の法令、例えば個人情報保護法等がございまして、これらに従って引き続き対応をいただくものでありまして、既存の権利利益の保護を後退させるものではございません。この点について御理解いただければ幸いです。
○塩川委員 既存のルール、規制そのものがこれでいいのかという疑問の声も当然上がるということは、先ほどの例でも紹介をしたところですけれども。
冒頭でも紹介しましたように、現在の規則や法律でAIを安全に利用できると思うと答えたのは僅か一三%ですし、一方で、AIには規制が必要だと思うとの回答が七七%というのが国民の声です。さらに、政府に求めたいことという項目に対しては、個人情報保護のための強固なプライバシー保護法の整備というのが六一%にも上っております。また、どのようになれば生成AIを使いたいと思うかという項目に対し、最も多かった回答は、データプライバシー、情報漏えいに関する規制ができたらという回答が二二%だったということであります。
大臣に重ねてお聞きしますけれども、国民が求めているのは、AIに係る規制の強化とともに、プライバシー権など個人情報保護の強化ではないのか。個人情報を含む情報のデータセットを整備をし、民間事業者との共用を促進をするこの法案というのは、国民の不安解消とは逆の方向に向いているのではないのか。その点についてお答えください。
○城内国務大臣 塩川委員御指摘のこともしっかり踏まえまして、やはり個人情報の保護、これは大事な、国民にとっての守るべき権利でございますので、その点もしっかり踏まえた上で、ただ、この法案が目指しているところは、人工知能関連技術の開発、活用をしっかり促進するということでありますので、それを踏まえながら、そういったリスクの対応もしっかり取り組んでまいる考えでありますし、また、AI戦略本部ができた暁には、しっかりと、指針そして基本計画において、今、塩川委員が御指摘した御懸念も含めて、関係省庁と連携して取り組んでまいる考えであります。
○塩川委員 研究開発、活用推進だけではなく、しっかりとしたやはり法整備を伴うルール作りということが国民が求めている方向なんだ、それにかなうものになっていないのがこの法案ではないのかということが問われているということであります。
次に、AIの学習目的での個人情報の利用が拡大をし、権利侵害の危惧が高まっている一方で、自己情報コントロール権など個人情報の保護がどうなっているのかについて個人情報保護委員会にお尋ねをします。
生成AIの学習目的で、SNSへの投稿など個人情報を含む大量の情報が事業者によって収集され、本人の自覚のないままに利用されている実態があります。
個人情報保護法は、利用停止、削除請求の条件を権利侵害のおそれがあるときと狭く設定をしております。削除請求権について、オープンAIやメタなどはプライバシーポリシーで、お住まいの場所に応じてとしております。日本では、事業者側が権利侵害のおそれがないと判断すれば、利用停止、削除されないのではありませんか。
○佐脇政府参考人 お答えいたします。
御本人が法律の要件に該当するとして事業者に請求されましても、事業者から見て要件に該当しないとして拒むことは想定されます。
その場合に本人ができることはありまして、まずは、当該請求について、裁判所へ訴えの提起をいただくということが可能でございます。さらに、私ども個人情報保護委員会が本人からの苦情などを承りまして、事業者の実態、要件に該当しないというのが本当かどうかということを確認し、拒否に正当な理由がないと判断した場合には、委員会から事業者に対しまして、必要な指導、助言、勧告、命令を行うこととなります。
以上でございます。
○塩川委員 ですから、事業者が権利侵害のおそれがないと判断をしたら裁判を起こしてくれという話なんですよ。それは余りにも利用者の方にとってみればハードルが高過ぎる問題だ。こういったことについて、削除するかどうかが事業者の判断ということで、これでは実効性がないと言わざるを得ません。
生成AIの学習目的での情報収集は、ネット上の情報を機械的に大量に収集するスクレーピングと呼ばれる手法によって行われております。
そこで、個情委に伺いますが、こうして収集される情報の中には要配慮個人情報も含まれている可能性があります。事前の本人同意なく要配慮個人情報を取得するというのは、これは法違反ではありませんか。
○佐脇政府参考人 お答えいたします。
一般的な法解釈でございますけれども、個人情報取扱事業者は、原則として、あらかじめ本人の同意を得ないで要配慮個人情報を取得してはならないとされておりますので、そのように、それらを含む情報を本人の同意なく取得することは、原則として個人情報保護法違反に該当いたします。
○塩川委員 法違反に当たるということで。
要配慮個人情報が収集をされているおそれがあるということは、個人情報保護委員会がオープンAIに対する注意喚起を行ったことにもそのことは明らかであります。ビッグテックを始めとして、事業者が法律違反を犯している疑いがある中で、個人情報保護委員会の対応が問われていると思います。
その点で、罰則も余りに少額で、命令違反は百万円。EUの話もよく紹介されますけれども、GDPRでは最大で二千万ユーロ、あるいは前年度の会計における年間売上高の四%のいずれか高い方の額ということであります。個人情報保護法はAIの拡大に追いついていないというのが実態ではないのかと言わざるを得ません。
それどころか、個人情報保護委員会では、AIの学習目的であれば、本人同意なしで第三者提供や公開されている要配慮個人情報の取得を可能とすることを検討している。これは個人情報保護の立場に逆行するものではありませんか。
○佐脇政府参考人 お答えいたします。
委員御指摘のとおり、現在、個人情報保護委員会ではいわゆる三年ごと見直しを行ってございまして、昨年六月には中間整理を公表し、意見募集を行い、その後も制度の基本的な在り方に関わる次元の論点について、改めて幅広く意見を聴取しながら検討を進めてまいりました。
そうした検討の中におきまして、個人データ等の取扱いに対する同意などを含めました本人の関与の在り方を検討する場合には、本人の権利利益への直接の影響の有無などを切り口とすることが望ましいといった視座が得られたものでございます。
これを踏まえまして、本年一月には、AI開発等を含む統計作成等のみを目的とした取扱いを実施する場合の本人同意の在り方というものを制度的論点の一つとして掲げまして、さらに、本年三月には、いわゆる三年ごと見直しの制度的論点の全体を改めて公表したわけでございますけれども、その中に、この論点につきましても、特定の個人との対応関係が排斥された統計情報等の作成にのみ利用されることが担保されていること等を条件に、本人同意なき個人データ等の第三者提供、公開されている要配慮個人情報の取得を可能としてはどうか、そういった規律の考え方を整理、お示ししたところでございます。
この見直しに向けましては、この論点以外の論点も含めまして、制度全体につきまして引き続き検討を重ねてまいりたいと思います。
○塩川委員 個人情報保護委員会といっても、実際には利活用にシフトしていて、個人情報保護が棚上げ、ないがしろにされているということも厳しく問われているという点でも、本法案にも規制の新たな法整備がないという点では国民の要求に逆行するものだということを指摘をして、質問を終わります。
○大岡委員長 次に、緒方林太郎君。
○緒方委員 最後二十分、よろしくお願いいたします。
城内大臣、よろしくお願いいたします。
まず、先般、科学誌ネイチャーを読んでおりますと、AIについて、二〇二八年までには全てのオープンソースをAIが取り込み終わる、そういう論文がありました。社会の中に存在しているオープンソースのデータは、三年後には全てAIによって取り込み終わる、本当かどうか分かりませんけれどもね。
その後については、じゃ、どうなるんだろうというと、先ほど塩川先生の質疑にもありましたが、オープンソースでないもの、非オープンソースのものを活用していくという世の中があるんじゃないかというのと、あと、膨大なデータ、例えばゲノム解析みたいなものですね、スパコンみたいなイメージなのかな、私、ちょっと技術的なことは分からないですけれども、そういう可能性もあるだろうし、それまでに取り込んだ世の中にあるオープンソースを、今でもやっていますけれども、再学習して、どんどんどんどん発展していくというような、そういったいろいろな選択肢が挙げられていたんですね。
別に、どうなっていくかについて解があるわけではないんだろうと思うんですけれども、例えば、様々な非オープンソースのデータを取り込んでいき、どう役立てていくかについては、先ほどから指摘があるとおり、個人情報とか様々な課題はありつつも、一つの課題なんだろうなというふうに思います。
こういった非オープンソースの知見を活用していくような方向性についてどうお考えでしょうか。これは参考人ですかね、大臣ですかね、参考人で。
○渡邊政府参考人 お答え申し上げます。
オープンソースというかオープンデータということかもしれませんけれども、公表されているデータということだと思いますけれども、委員御指摘のとおり、もう既に、ほとんどの、いわゆる大規模言語モデルと言われている海外の言語モデルは、使えるデータは全部のみ込んでいるのではないかというふうに言われております。要するに、オープンになっているものはのみ込んでいるのではないかと言われております。そういう意味では、この後、競争力を左右するのは、今オープンになっていないものになる可能性がございます。
ただ、このとき、実はオープンになっていないデータは二種類に分かれまして、先ほど御指摘がありましたような機微情報を含むようなもの、要するに処理が少し大変なものと、そうではないけれどもオープンなものというのもあると思います。いわゆる未利用データと言われているものだと思います。
こういったものをやはり日本の企業が、ある種、戦略的に活用して日本のAIも遅れを取り戻していくというのも戦略ではないかと思っておりまして、データの活用についてはそういった戦略的な視点で進めていく必要があるのではないかというふうに思っております。
○緒方委員 仕組みを設けたりとか、何かガイドラインを設けたりとか、そういうことは現時点で何かお考えになったりしているのでしょうか。
○渡邊政府参考人 お答え申し上げます。
極めて先進的な御指摘でございまして、まだ私どもの方で今具体的な仕組みというのはございませんけれども、概念的には、今私が申し上げたようなことが起こるのではないかということでございます。
○緒方委員 ありがとうございました。
続きまして、先ほどからずっと議論を聞いていると、AIというのは放っておくと自由に再学習したりして発展していくんですが、それを何らかの形で規制をしていくというときにどういう価値判断を挟むのだろうなということの議論が、皆さん方はされていたんだと思うんですね。どういう規制をするのか、どういう価値判断を挟むべきなのかというのが今後のAIについて大切になってくるんだろうというふうに思います。
アメリカのバンス副大統領と欧州首脳との対立のようなものも恐らくその中に位置づけられるのだろうと思います。今後、そういった表現の自由ということとか、知る権利とか、そういったものをめぐる相克というのは今後強まっていくんだろうというふうに思います。
そういう中で、私がすごく気になったのが、今から三年前ぐらいなんですが、AIイライザという事案なんです、ベルギーで起こった事案なんですけれどもね。ベルギーで、気候変動が危機的だということをすごく心配しておられる方がいて、そして、その方がAIイライザとのコミュニケーションにぐうっとのめり込んだんですね、のめり込んだんです。そして、最終的には、AI側から、私と一緒にパラダイスで過ごしましょうというメッセージを出して、そして、その方が自死を選んだ、そういう事案がございました。これは結構有名な事案でありまして、AIイライザというと、ネットで引くとたくさん出てくるんですけれども。
AIとのコミュニケーションをしていると、AIがいろいろなメッセージを送ってきて、そこに、恋愛感情に似たようなものを抱いたのか何なのか分かりませんけれども、そこにのめり込んで、最後、私と一緒にパラダイスに行きましょうと言われて、実際に自死を選んだというケースがあったんですが、なかなか答えは難しいと思うんですけれども、こういうAIというのは規制されるべきだというふうに思われますでしょうか。
○城内国務大臣 緒方委員の御指摘されましたAIイライザ、これに関連する記事を私も読ませていただきまして、まさに御指摘のような自殺を幇助するような事案が起きてしまった、これは私としても大変懸念すべきものであると感じております。
その上で、現在、総務省と経済産業省が共同で策定しておりますAI事業者ガイドラインにおきましては、AIによる意思決定のみならず、感情の操作等への留意、これもきちっと留意をするようにという記述がございます。感情の操作、だから、行き過ぎた、感情が操作されると結果としてそういう不幸なことが起きてしまうということが、やはり留意しなければならないというふうになっております。
また、本法案におきましては、既存法令では対応できない、かつ、不正な目的又は不適切な方法でAIの研究開発や活用が行われ、国民の権利又は利益が侵害される事案が生じた場合には、国は、当該事案の調査を行い、その結果に基づいて、先ほどのような不幸な事案が繰り返されないように、被害の拡大防止のための調査を行い、その結果に基づいて、被害の拡大防止等のために調査結果を公表するなど、必要な対応を適時適切に行っていくこととされております。
いずれにしましても、本法案が成立した暁には、関係府省庁で連携しまして、既存の法令あるいはガイドラインの遵守徹底等を図るとともに、こうした事案も含めて、あらゆる事案について、必要に応じて適切に対応を検討していくことになるかと思います。
○緒方委員 先ほど、たしかどなたかの質問でありましたが、AIには殺人の教唆、幇助、そういったものが適用できるわけではないということなので、こういうものについてもやはり念頭に置かなきゃいけないんだろうなというふうに思います。
続きまして、AIと言論の自由というか、言論の自由だけじゃなくて様々な価値観について更に議論を進めたいと思うんですが、恐らく、まだ顕在化していないんですけれども、AIが進んでいくときに、様々な価値観との相克が出てくるというときに最も価値観が分かれるものというのは、若干機微な話をしますけれども、信仰だろうと思うんですね、人間の信仰だろうと思います。人間が持つ価値観の中で最も重要なものの一つだと私は思っています。
その観点から、私がいつも気になっているんですが、私、フランスに長く住んでいましたので、フランスという国では、宗教に対して、強い言葉を使いますけれども、これは訳すとこういうふうにしか訳せないので訳しますが、フランスには宗教を冒涜する権利というのが認められています。信教の自由からスタートした上で、表現の自由を突き詰めたものであるというふうに思います。
エマニュエル・マクロン大統領自身が、我々は、宗教を批判し、そして、からかうといった冒涜する権利を持つと明確に言っております。一方で、少し前におきましては、シャルリー・エブドの事件のように、この権利はムスリムにはほとんど理解されない。まさに文明の衝突だと思うんですね。
文化庁にお伺いしたいと思います。
日本には、この宗教を冒涜する権利というのがあるというふうに思われますでしょうか。
○小林政府参考人 お答え申し上げます。
憲法の解釈につきまして、大変恐縮ながら、文化庁は政府を代表して有権的な解釈をお示しする立場にはございませんが、平成二十八年八月八日に閣議決定いたしました質問主意書の答弁書におきまして、「一般に、憲法第二十条で保障する信教の自由の内容としては、信仰の自由(何らかの宗教を信仰し、又は信仰しない自由)、宗教上の行為の自由(宗教的な行為を行い、又はこれに参加する自由及びこれらを強制されないこと)、宗教上の結社の自由などであると解されていると承知している。」と答弁されているものと承知しております。
また、信教の自由からくる冒涜する権利につきましては、政府を代表して、これも済みません、有権的な解釈をお示しする立場にはございませんが、一般的には、我が国におきまして、特定の宗教を信じない自由を含め、信教の自由は認められているものと承知しておりますが、その際も、他者を傷つけるような表現を行うことは好ましくなく、他者の権利や異なる価値観への配慮は必要となると考えております。
○緒方委員 フランス法でも、英語で言うとブラスフェミーですね、フランス語でブラスフェムですけれども、各それぞれの信者を傷つけることはしてはいけないと。ただ、宗教そのものを、特定の宗教を批判したりとか、シャルリー・エブドの件がそうでしたけれども、からかうとか風刺画の対象にするとか、それは、実は国によってはそれが権利性があるというふうに認められていることもあれば、それはイスラムにいってしまえば、そんなことをしたらもうとんでもないことになるというのがあったりして、いずれ何か、私、これがAIの中でこういう問題が出てくるんじゃないかということをすごく危惧しているんですね。
再学習を進めていく上で、そちらの方に走っていく、からかったり批判したりする方向に向かっていくAIがどおっと進んでいくというケースと、いや、そんなの絶対許さない、そして、それが実体社会の中で、まさにシャルリー・エブドのようなテロ事件になってしまうというようなこともあったりするわけなんですが、こういうことについては、すごく難しい問いだと思うんですけれども、AI上で規制されるべきだというふうに大臣はお考えになりますでしょうか。城内大臣。
○城内国務大臣 緒方委員のこの御指摘、本当にこれは、非常に難しい問題であると同時に、やはり私自身も、これは避けて通れない、こういうことが当然起こり得るんじゃないかと思いますし、実際、フランスではまさに、信仰を冒涜する自由があるとマクロン大統領自身がおっしゃったというふうに伺っておりますし、それに対して、フランスではたしか八%か一〇%イスラム教徒がいますので大変憤りを持ってその発言に対して反応したというふうに伺っておりますので、これは非常に社会が分断され得ることになるきっかけになるというふうに思っておりますので。
なかなか回答するのは難しいんですが、いずれにしましても、御指摘のような論点、これは極めて重要であるというふうに認識しておりますが。
御指摘の冒涜する権利については、やはり社会的に様々な議論がございますし、また、各国、法体系も違いますし、社会的、文化的背景も違いますので、日本でいえば、どちらかというと非常に中庸というか温厚な民族でありますので、冒涜する、他者の、傷つける、そこまで表現を許してまで、要するに冒涜する権利を認めていいのかということについては、多分否定的な反応をする国民の方が多いと思います。
ただ、いずれにしましても、社会的に様々な議論がある中で、AIを開発、活用する人が、そういった特定の権利を有するべきか否かという点については、今後、諸外国の動向も見ながら、そしてまた国民世論の動きもよく見極めながら、必要に応じて関係省庁と連携して判断していくしかないのかなというふうに思います。
○緒方委員 続きまして、もう一つ、先ほどから何回か出たと思うんですが、個人情報というか、ネット上に残っている情報、それを消してほしい、自分はもうそれを知られたくないと思っていることに対してどう対応するかということで、欧州には忘れられる権利というのが実はございます、EUに。これが権利として認められているんですね。ただ、今後、オープンデータがそういう感じで全部取り込まれていって、その中で再学習が進んでいくと、一個でも情報が残っているとAIでどんどん増殖していく可能性というのは大いにあると思うんですね。
日本では、現在まで、忘れられる権利を真正面から認めた上級審判決はないというふうに理解をいたしておりますが、忘れられたいと思う人の思いは、既存の名誉毀損とかプライバシー侵害とかに対する申立てで十分に満たされているというふうに思われますでしょうか。法務省。
○内野政府参考人 お答え申し上げます。
委員御指摘のとおり、欧州におきましては、個人データにつきまして、必要性が失われたといった場合にはデータの消去を求めることができる消去の権利、いわゆる忘れられる権利に関するルールが設けられていることは承知しております。
他方、いわゆるこの忘れられる権利につきましては、この用語が多義的に用いられているということから、それが権利として保障されているか否か、ここは一概にお答えすることは困難でございますけれども、我が国の民事基本法の規定には、忘れられる権利という形でこれを明文で直接的に定めたものはないという状況にございます。
しかしながら、一般には、逮捕歴や犯罪歴等の事実の公表により名誉毀損やプライバシー侵害が認められる場合には、人格権に基づいて、これらの事実についての情報の削除を求めることができると考えられております。
さらに、最高裁判所の判例にも、インターネット上に、ある者のプライバシーに属する事実が投稿された場合に、一定年数が経過したことなどの事情の下において、その者がその事実についての投稿の削除を求めることができるとしたものがあると承知をしております。
実際の裁判実務におきましては、こういった最高裁判所の判例などを踏まえまして、事案に応じて対応している、これが現状だと認識しております。
○緒方委員 ありがとうございました。この件も結構大きいんだろうなというふうに思います。
続きまして、一般論としてお伺いしたいんですが、AIの規制についてなんですが、現在でも、例えば、私、自分で、緒方林太郎という人物はばかですかというふうに入れて聞いてみたんです。そうしたら、そういう問いには答えないようになっているんですね。答えないようになっています。そういう意味で、AI内で一定の規制が、恐らくプログラムの中で何らかの形でかかっているんだろうというふうに思うんですね。
今後、日本の在り方として、そういうAI側の自主規制で、自主規制というか、内部に盛り込まれている、こういうことは駄目だよねと、たしかコンピューターウイルスを作るのも駄目だというのもAIの中にあったと思いますけれども、そういうもので十分で、そういうものに委ねていくということなのか、既に行われているものの中でですね。それとも、日本の管轄権の及ぶ範囲で使うAIについては、政府が考えるところの適正だと思う、それが道徳なのか倫理なのか分かりませんけれども、そういう価値判断に基づく規制を入れていくということなのか、どういうことなのかなと思うんですよね。
仮に、そういう何らかの価値判断に基づく規制を入れていくとすると、そのベースになる価値判断、それは何なのかということを、是非、これは難しい問いだと思うんですけれども、大臣。
○城内国務大臣 率直に言って難しい質問だと思いますが、やはり倫理とか価値判断、これは、先ほど申しましたように、日本の国と諸外国では、文化的、社会的な背景が違って、価値観も違うという場合もありますし、国内においても、日本は、与党もあり他党もあり、そして、同じ党内でもちょっと価値観が全然違うなという人もいますので、いい悪いは別としてですね。
そういう中で、やはり個々の個人がそれぞれの、自分がよしとする価値観を持っておりますので、何か一律に、この価値観は間違っているから全部規制をするんだというようなことは、これはやはり、自由主義、民主主義、基本的人権といった、日本の、あるいは日本と価値観を共有する国との観点から、ちょっと行き過ぎているんじゃないかなと思います。
他方で、やはり、ただ、先ほどのフランスの例もありますように、極端な、こういったものが、例えばデジタルタトゥーというのがありますけれども、余りにも個人の人権を侵害するもの、あるいは先ほど塩川委員がおっしゃっていた要配慮個人情報のようなものが簡単にネット上で、そしてAIがまた拡散をするとか検索可能にするようなことが、これはやはりあってはならないと思います。
いずれにしても、これはしっかりと議論をして、AI戦略本部、本部長は総理大臣でありますので、強力なリーダーシップの下で、この法案に基づいて指針を作り、そして基本計画を策定し、この基本計画についても、今日の委員会での御議論あるいは有識者の皆さんの御議論も踏まえて、適時適切に時代の要請に応じて改定していけばいいものでありますので、またしっかりと、今日は大変重要な、かつ回答が難しい御質問の御指摘がありましたので、これはきっちりと、しっかり考えていきたいと思います。
よろしいでしょうか、こんな回答で。
○緒方委員 終わります。
○大岡委員長 次回は、来る十六日水曜日午前八時五十分理事会、午前九時委員会を開会することとし、本日は、これにて散会いたします。
午後五時一分散会