① AI 事業者ガイドライン(第 1.2 版)
① AI 事業者ガイドライン(第 1.2 版)
| 項目 | 内容 |
|---|---|
| タイトル | AI 事業者ガイドライン |
| 発行元 | 総務省・経済産業省 |
| 発行日 | 令和8年(2026年)3月31日 |
| バージョン | 第1.2版 |
| 対象者 | AI開発者・AI提供者・AI利用者(政府・自治体等の公的機関を含む事業者)※業務外利用者・データ提供者は対象外 |
| 総ページ数 | 42ページ(本編)+別添(付属資料) |
| リンクURL | https://www.soumu.go.jp/main_content/001064279.pdf |
内容の詳細な要約
はじめに
生成AIの普及により「AIの民主化」が進む一方、知的財産侵害・偽情報生成など新たなリスクも増大している。これを受け、2025年に「人工知能関連技術の研究開発及び活用の推進に関する法律」が施行され、本ガイドラインはそれに対応した形で策定・更新された。ルールベース規制ではなくゴールベースのソフトローとして、マルチステークホルダーの関与のもと「Living Document」として継続的に更新される。
第1部:AIとは
AIの歴史と定義を整理し、本ガイドラインで使用する用語を定義している。
- AI:機械学習ソフトウェアを含む抽象的概念
- AIシステム:自律性を持って動作・学習するソフトウェアを含むシステム
- 高度なAIシステム:最先端の基盤モデル・生成AIを含む最先端システム
- 生成AI:文章・画像・プログラム等を生成できるAIの総称
- AIエージェント:目標達成のために自律的に行動するAIシステム
- フィジカルAI:物理環境に直接働きかけるAIシステム
第2部:AI により目指すべき社会及び各主体が取り組む事項
A. 基本理念(Why) 2019年「人間中心のAI社会原則」に基づく3つの基本理念:
- 人間の尊厳が尊重される社会(Dignity)
- 多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity & Inclusion)
- 持続可能な社会(Sustainability)
B. 原則 OECDのAI原則等を踏まえ再構成。各主体は安全性・公平性・プライバシー保護・セキュリティ・透明性・アカウンタビリティを確保し、バリューチェーン全体で連携することが求められる。
C. 共通の指針(What) 全主体が取り組むべき10の指針:
- 人間中心:人間の尊厳・自律の尊重、意思決定操作の禁止、偽情報対策、多様性・包摂性確保、利用者支援、持続可能性確保
- 安全性:信頼性・堅牢性・制御可能性の確保、適正利用、適正学習
- 公平性:バイアスへの配慮、人間の判断の介在
- プライバシー保護:個人情報保護法等の遵守、プライバシー・バイ・デザイン
- セキュリティ確保:機密性・完全性・可用性の維持、最新動向への対応
- 透明性:検証可能性の確保、ステークホルダーへの情報提供、説明可能性の向上
- アカウンタビリティ:トレーサビリティ向上、責任者の明示、文書化
- 教育・リテラシー:AIリテラシー確保、リスキリング、ステークホルダーへのフォローアップ
- 公正競争確保:公正な競争環境の維持
- イノベーション:オープンイノベーション推進、相互運用性確保
D. 広島AIプロセス国際指針 G7で採択された「全てのAI関係者向けの広島プロセス国際指針」の11+1原則を紹介。リスク評価・透明性確保・セキュリティ投資・コンテンツ認証など高度なAIシステムに関する国際的な行動規範。
E. AIガバナンスの構築 「アジャイル・ガバナンス」の実践を推奨。環境・リスク分析→ゴール設定→システムデザイン→運用→評価のサイクルを継続的に回すことが重要。経営層のリーダーシップと、AI ガバナンスを組織文化として根付かせることが求められる。
第3部:AI開発者に関する事項
AIモデルを直接設計・変更できる立場として、最も大きな社会的影響力を持つ主体。主な求められる事項:
- データ前処理時:適切なデータ収集(個人情報・知的財産への留意)、バイアス管理
- AI開発時:安全性を考慮した開発(ガードレール技術等)、セキュリティ・バイ・デザイン、検証可能性の確保
- AI開発後:最新セキュリティ動向への対応、ステークホルダーへの情報提供、開発関連情報の文書化
また「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」(I〜XI)に準拠することが求められ、G7合意の「報告枠組み」への参加も期待されている。
第4部:AI提供者に関する事項
AI開発者のシステムに付加価値を加えてAI利用者に提供する主体。主な求められる事項:
- AIシステム実装時:リスク対策(ガードレール技術)、適正利用のための留意点設定、バイアス検討、プライバシー・バイ・デザイン、セキュリティ・バイ・デザイン、文書化
- AIシステム・サービス提供後:定期的な適正利用検証、プライバシー侵害対策、脆弱性対応、ステークホルダーへの情報提供、サービス規約・プライバシーポリシーの文書化
第5部:AI利用者に関する事項
事業活動においてAIシステム・サービスを利用する主体。主な求められる事項:
- AI提供者の定めた利用上の留意点の遵守
- 正確性が担保されたデータ入力、出力の精度・リスク理解
- バイアスへの配慮と責任ある出力結果の活用
- 個人情報・機密情報の不適切入力防止
- ステークホルダーへの説明責任の履行(AI利用の通知、問合せ窓口設置等)
- AI提供者から提供された文書の適切な保管・活用
① AI 事業者ガイドライン(第 1.2 版)別添(付属資料)
| 項目 | 内容 |
|---|---|
| タイトル | AI 事業者ガイドライン(第 1.2 版)別添(付属資料) |
| 発行元 | 経済産業省(日本政府)※本ガイドライン策定主体 |
| 発行日 | 令和 8 年 3 月 31 日(2026年3月31日) |
| バージョン | 第 1.2 版 |
| 対象者 | AI 開発者・AI 提供者・AI 利用者(企業の経営層から実務担当者まで) |
| 総ページ数 | 185 ページ |
| リンクURL | https://www.soumu.go.jp/main_content/001064286.pdf |
📋 内容の詳細な要約
【別添.はじめに】
本資料は、AI 事業者ガイドライン本編(Why・What)の実践編(How)として位置づけられています。「AI 開発者」「AI 提供者」「AI 利用者」の三主体が、本編の指針を実現するための具体的アプローチを理解・実践できるよう、リファレンスとして作成されています。リスクベースアプローチを基本姿勢とし、全て画一的に実施することを求めるものではなく、各事業者が自社の状況に応じて活用することを期待しています。
【別添1:第1部関連 ― AI の前提とリスク/便益】
A. AI に関する前提
- AIの学習・利用の流れ(訓練データ→AIモデル→推論)を図解で説明
- AIシステムの概要(ファインチューニング・RAG・プロンプトエンジニアリング等)
- AI開発から利用までのバリューチェーン(開発者→提供者→利用者)
- 代表的なAIシステム・サービス例(採用AI、無人コンビニ、自律移動ロボット等)
- AI事業者の3パターン(業務外利用者への便益提供型、事業者内利用型、サービス直接利用型)
B. AI による便益/リスク
便益の主な例:
- 運営コスト削減、新製品・サービス創出、組織変革
- 農業・教育・医療・製造・輸送など多分野への応用
- 生成AIによるDX加速(コード生成、RAG活用、マルチモーダル対応)
- AIエージェントによる複雑業務の自動化
- フィジカルAIによる労働力不足補完・QOL向上
リスクの主な例(体系的分類):
| リスク分類 | 具体例 |
|---|---|
| AIシステムへの攻撃 | データ汚染、プロンプトインジェクション、マルウェア生成 |
| バイアスのある出力 | 差別的採用判断、不公平なクレジット審査 |
| ハルシネーション | 存在しない判例の引用、名誉毀損につながる虚偽情報生成 |
| ブラックボックス化 | アルゴリズムの説明不能、説明責任の欠如 |
| 個人情報の不適切取扱 | 情報漏洩、同意なき第三者提供 |
| 生命・財産への事故 | 不適切な出力による深刻な損害 |
| 悪用 | 音声合成詐欺、マルウェア自動生成 |
| 知的財産権侵害 | 生成AIによる著作権侵害コード生成 |
| 偽・誤情報の拡散 | ディープフェイク、選挙干渉 |
| 民主主義への悪影響 | 個人情報を使ったターゲティング選挙工作 |
| 多様性の喪失 | LLM出力の収束によるエコーチェンバー加速 |
| 環境負荷 | データセンターの電力消費増大 |
【別添2:AIガバナンスの構築】
AIガバナンスの構築に向けた行動目標を6フェーズ・16項目で体系化:
- 環境・リスク分析:便益/リスクの理解、社会的受容の把握、自社AI習熟度の評価
- ゴール設定:AIガバナンス・ゴールの設定
- システムデザイン:乖離評価・対応の仕組み化、人材リテラシー向上、部門間協力、インシデント予防
- 運用:AIマネジメントシステムの説明可能な運用状態の維持、ガバナンス実践状況の開示
- 評価:AIマネジメントシステムの機能検証、外部ステークホルダー意見の反映
- 再分析:環境・リスクの定期的な再評価
各行動目標には、仮想企業を想定した具体的な実践例(i〜v)が多数掲載されており、経営層への報告体制構築、AI倫理委員会の設置、OECD分類フレームワークの活用、インシデントデータベース(AIID等)の参照方法なども詳述されています。
【別添3:AI開発者向け】
- AI開発における安全性・公平性・プライバシー保護・セキュリティ確保の具体的手法
- 適切な学習データの選定、バイアス対策、ハルシネーション低減策
- 「広島AIプロセス 国際行動規範」(高度なAIシステム開発組織向け)の解説と適合方法
【別添4:AI提供者向け】
- AIシステム・サービスの提供時のリスク対策(脆弱性への対応・セキュリティ確保)
- 利用者への「共通の指針」対応状況の説明・文書化・サービス規約の整備
- 透明性・アカウンタビリティ確保のための情報開示実践
【別添5:AI利用者向け】
- 入力データ・プロンプトに含まれるバイアスへの配慮
- 個人情報の不適切入力・プライバシー侵害の防止策
- 提供された文書の活用と規約の遵守、AI出力への過度な依存回避
【別添6:AI・データ利用に関する契約上の留意事項】
- データの授受を行う際に「AI・データの利用に関する契約ガイドライン」を参照する際の注意点
- データ提供者・受領者双方が合意・契約のうえでデータ活用を進めることの重要性を整理
総括: 本資料はAI事業者が直面する実務課題(ガバナンス構築、リスク管理、主体別対応)を網羅的かつ具体的にカバーしており、日本におけるAI事業実践の標準的リファレンスとして機能する重要文書です。
① 別添9. 海外ガイドライン等の参照先(AI事業者ガイドライン 第1.2版)
| 項目 | 内容 |
|---|---|
| タイトル | 別添9. 海外ガイドライン等の参照先(AI事業者ガイドライン 第1.2版) |
| 発行元 | 日本政府(経済産業省・総務省等、AI事業者ガイドライン策定機関) |
| 発行日 | 令和8年3月31日(2026年3月31日) |
| バージョン | 第1.2版 |
| 対象者 | AI事業者(AI開発者・AI提供者・AI利用者)、政策担当者、ガイドライン参照者 |
| 総ページ数 | 3ページ |
| リンクURL | https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20260331_8.pdf |
🔍 内容の詳細な要約
参照対象の海外ガイドライン10件
| 番号 | 文書名 | 発行機関 | 発行年 |
|---|---|---|---|
| ① | Advancing accountability in AI | OECD | 2023年2月 |
| ② | Hiroshima AI Process Comprehensive Policy Framework | G7 | 2023年12月 |
| ③ | AI Risk Management Framework (AI RMF 1.0) | NIST(米国) | 2023年1月 |
| ④ | Cybersecurity Framework | NIST(米国) | 2018年4月 |
| ⑤ | Blueprint for an AI Bill of Rights | ホワイトハウス(米国) | 2022年10月 |
| ⑥ | Artificial Intelligence Act | EU | 2024年8月 |
| ⑦ | Guidelines for Secure AI System Development | NCSC(英国) | 2023年11月 |
| ⑧ | Ethics Guidelines for Trustworthy AI | EU | 2019年4月 |
| ⑨ | Guidelines for Privacy Impact Assessment | ISO | - |
| ⑩ | Recommendation on the Ethics of AI | UNESCO | 2021年11月 |
対照表の構造と参照の読み方
本文書は、AI事業者ガイドライン本編・別添の各パートと、上記10の海外文書の該当セクションを対照させた一覧表です。主な対応関係は以下のとおりです。
第1部「AIとは」
- OECDの「AI terms & concepts」や、EU AI ActのRecital 27・29、EUの信頼性を備えたAIのための倫理ガイドラインの人間の主体性・監視に関する章を参照。
第2部「共通の指針」
- G7広島AIプロセス国際行動規範、NIST AI RMF(3.4 Accountable and Transparent、5.3 Measure)、UNESCO AI倫理勧告などを参照。
第3部「AI開発者に関する事項」
- データ前処理・学習時:NIST AI RMF「3.1 Valid and Reliable」「3.7 Fair – with Harmful Bias Managed」
- AI開発時:NIST AI RMF「3.2 Safe」、NIST CSFのサイバーセキュリティプログラム関連章、英国NCSCの「Secure design / development / deployment / operation」
- AIシステム実装時:OECD「5.1 Monitor, document, communicate and consult」
第4部「AI提供者に関する事項」
- OECD、G7広島AIプロセス、NIST AI RMF(透明性・説明責任関連)、米国AI権利章典(自動化システムへの期待事項)を参照。
第5部「AI利用者に関する事項」
- 第4部と同様の海外文書群(OECD、NIST AI RMF、米国AI権利章典)を参照。
第2部E「AIガバナンスの構築」
- NIST AI RMF「5.3 Measure」「3.5 Explainable and Interpretable」、NISTの説明可能AIの4原則(2020年)を参照。
利用上の注意点
- 本表はあくまでガイドライン公開時点の参照関係であり、各海外ガイドラインが更新・改版された場合、対応関係が変わる可能性があります。
- 本表を活用することで、日本のAI事業者ガイドラインの各記載がどの国際文書のどのセクションに基づいているかを効率的に確認できます。
他のガイドラインは以下よりご覧ください
AIガイドライン 18本 構造化インデックス
【一覧】日本政府 AIガイドライン 18本【INDEX】