ChatGPT等のLLM、生成AIに関する国の政策の動向について(国外編)

生成AI、大規模言語モデル(LLM)を巡る政策が国内外で引き続き活発に議論されています。前回は、G7広島サミットまでの日本国内の政策動向をご紹介しました。

今回はEUのAI規制法案が欧州議会本会議で承認されたことを一区切りとして、直近の国外の政策動向を整理しました。この分野に関わる方々と国内外の政策に関する政策文書などの原典情報を共有し、課題意識や議論を発展させていきたいと思います。

 

EUの動向

EUでは3月31日にイタリアのデータ保護機関が米OpenAI社に対して、ChatGPTの利用によって行われるデータ学習について個人データの大量収集及び保存を正当化する法的根拠がないこと、個人データの不正確な処理が発生していたこと、ユーザーの年齢確認をする仕組みがないことを理由として、ChatGPTの一時利用停止を命じました。OpenAI社はイタリア当局からの要請に対応した後、4月28日から同国でのサービスを再開しています。

イタリアのデータ保護機関の措置を受けて、4月13日に欧州データ保護委員会(EDPB)はデータ保護当局が実施する可能性のある執行措置について情報交換を行うため、ChatGPTに関する専門のタスクフォースを設置しました。

5月11日には、世界初の包括的規則であるAI Act(通称:AI規制法案)が欧州連合(EU)欧州議会の域内市場・消費者保護委員会IMCO)と自由人権委員会(LIBE)にて承認されました。このAI規則法案は、ChatGPT等の生成AI/LLMが登場する以前の2021年4月に欧州委員会から発表されており、生成AI/LLMに関して内容修正の議論がなされていました。

そして、本規制法案は6月14日に欧州議会本会議にて採択され、今後、EU加盟国と最終的な協議を行い、2023年末までの合意を目指し2024年に施行予定です。

欧州議会が2023年6月14日に採択したAI規制法案の改正案(新旧対象)

https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf

 

米国の動向

米国では、米国商務省電気通信情報局(NTIA)がAIに関する政策の方針ついて、4月11日から6月10日にかけてパブリックコメントの募集を行いました。

米国商務省電気通信情報局(NTIA)の意見募集ページ

https://ntia.gov/issues/artificial-intelligence/request-for-comments

米国連邦取引委員会(FTC)は4月25日、Lina M. Khan委員長、米国司法省公民権局、消費者金融保護局、米国雇用機会均等委員会の関係者と連名で、自動化されたシステム及び人工知能における差別や偏見から国民を保護するための公的執行について共同声明を発表しました。

共同声明に関する米国連邦取引委員会(FTC)のプレスリリース

https://t.co/TzOl8tPNQw

共同声明の原文

https://www.ftc.gov/system/files/ftc_gov/pdf/EEOC-CRT-FTC-CFPB-AI-Joint-Statement%28final%29.pdf

5月3日には、ホワイトハウスにてカマラ・ハリス副大統領を議長とし、Alphabet社(Google社)、Anthropic社、Microsoft社、OpenAI社のCEOとの会合が開催されました。バイデン大統領も会合に出席し、AIに関連するリスクについて議論しました。ホワイトハウスから公表されたファクト・シートには、企業は自社の製品が展開または公開される前にその安全性を確認する基本的な責任があることについて強調されています。

また、5月16日には米上院のプライバシー・テクノロジー・法律小委員の公聴会にて、OpenAI社のサム・アルトマンCEOとIBM社のクリスティーナ・モンゴメリー最高プライバシー・トラスト責任者が証言を行いました。

OpenAI社 サム・アルトマンCEOの証言内容

https://www.judiciary.senate.gov/imo/media/doc/2023-05-16%20-%20Bio%20&%20Testimony%20-%20Altman.pdf

IBM社 クリスティーナ・モンゴメリー最高プライバシー・トラスト責任者の証言内容

https://www.judiciary.senate.gov/imo/media/doc/2023-05-16%20-%20Testimony%20-%20Montgomery.pdf

政府との協力と規制に関するサム・アルトマンCEOの発言抜粋(原文)

Working with Governments 

OpenAI believes that regulation of AI is essential, and we’re eager to help policymakers as they determine how to facilitate regulation that balances incentivizing safety while ensuring that people are able to access the technology’s benefits. It is also essential that a technology as powerful as AI is developed with democratic values in mind. OpenAI is committed to working with U.S. policymakers to maintain U.S. leadership in key areas of AI and to ensuring that the benefits of AI are available to as many Americans as possible.

We are actively engaging with policymakers around the world to help them understand our tools and discuss regulatory options. For example, we appreciate the work National Institute of Standards and Technology has done on its risk management framework, and are currently researching how to specifically apply it to the type of models we develop. Earlier this month, we discussed AI with the President, Vice President, and senior White House officials, and we look forward to working with the Administration to announce meaningful steps to help protect against risks while ensuring that the United States continues to benefit from AI and stays in the lead on AI. 

To that end, there are several areas I would like to flag where I believe that AI companies and governments can partner productively.

First, it is vital that AI companies–especially those working on the most powerful models–adhere to an appropriate set of safety requirements, including internal and external testing prior to release and publication of evaluation results. To ensure this, the U.S. government should consider a combination of licensing or registration requirements for development and release of AI models above a crucial threshold of capabilities, alongside incentives for full compliance with these requirements.

Second, AI is a complex and rapidly evolving field. It is essential that the safety requirements that AI companies must meet have a governance regime flexible enough to adapt to new technical developments. The U.S. government should consider facilitating multi-stakeholder processes, incorporating input from a broad range of experts and organizations, that can develop and regularly update the appropriate safety standards, evaluation requirements, disclosure practices, and external validation mechanisms for AI systems subject to license or registration.

Third, we are not alone in developing this technology. It will be important for policymakers to consider how to implement licensing regulations on a global scale and ensure international cooperation on AI safety, including examining potential intergovernmental oversight mechanisms and standard-setting.

 

欧米諸国の動向

欧米のその他の国では、英国、カナダ等で生成AI/LLMに関する政府の動きがありました。

英国では、4月3日に英情報保護当局の情報コミッショナー事務局(ICO)から、企業がChatGPTを始めとする生成AI/LLMを利用する場合の8つの留意点が公表されています。企業は一般データ保護規則(GDPR)に基づいて、データ保護に関する義務を果たす必要があり、そのための支援としてAI・データ保護リスクツールキットの提供、ICOから企業にアドバイスを行う運用を試験的に進めていることについても合わせて言及されています。

カナダでは、4月4日にカナダのプライバシー・コミッショナー事務所(OPC)がChatGPTとOpenAI社に関する調査を開始することを公表しました。また、5月25日にはOPCとカナダ4州のプライバシー当局が共同でOpenAI社を調査する予定であることを公表しています。

 

中国の動向

アジア圏においては、中国で生成AI/LLMに関する新たな規制に向けた動きがあります。

中国サイバースペース管理局(CAC)は、4月11日に「生成系人工知能サービス管理弁法」の草案を公表し、パブリックコメントの募集を5月10日までの期間で実施しました。草案では、生成AIを利用するサービスを提供する前に、アルゴリズムを事前に当局に対して届け出ることや、安全性評価を行うこと等が規定されています。

このように、海外でもAIに関する政策と規制が活発に議論されており、今後はOECDや国際連合等の国際機関を巻き込んで議論することが予想されます。

各国でAIに対する政策と規制の違いはありますが、AIガバナンスの枠組み間の相互運用について、「広島AIプロセス」に則り調和のとれた国際ルール形成にむけた議論がなされることを期待します。

(松橋 智美)