最新のテクノロジーを、背伸びせず、正しく、そして楽しく。 皆さんがAIと心地よく付き合っていくための、小さなガイドブックのような場所を目指しています。

① AI 事業者ガイドライン(第 1.2 版)

2026年5月14日  2026年5月14日 

① AI 事業者ガイドライン(第 1.2 版)

項目 内容
タイトル AI 事業者ガイドライン
発行元 総務省・経済産業省
発行日 令和8年(2026年)3月31日
バージョン 第1.2版
対象者 AI開発者・AI提供者・AI利用者(政府・自治体等の公的機関を含む事業者)※業務外利用者・データ提供者は対象外
総ページ数 42ページ(本編)+別添(付属資料)
リンクURL https://www.soumu.go.jp/main_content/001064279.pdf

内容の詳細な要約

はじめに

生成AIの普及により「AIの民主化」が進む一方、知的財産侵害・偽情報生成など新たなリスクも増大している。これを受け、2025年に「人工知能関連技術の研究開発及び活用の推進に関する法律」が施行され、本ガイドラインはそれに対応した形で策定・更新された。ルールベース規制ではなくゴールベースのソフトローとして、マルチステークホルダーの関与のもと「Living Document」として継続的に更新される。


第1部:AIとは

AIの歴史と定義を整理し、本ガイドラインで使用する用語を定義している。

  • AI:機械学習ソフトウェアを含む抽象的概念
  • AIシステム:自律性を持って動作・学習するソフトウェアを含むシステム
  • 高度なAIシステム:最先端の基盤モデル・生成AIを含む最先端システム
  • 生成AI:文章・画像・プログラム等を生成できるAIの総称
  • AIエージェント:目標達成のために自律的に行動するAIシステム
  • フィジカルAI:物理環境に直接働きかけるAIシステム

第2部:AI により目指すべき社会及び各主体が取り組む事項

A. 基本理念(Why) 2019年「人間中心のAI社会原則」に基づく3つの基本理念:

  1. 人間の尊厳が尊重される社会(Dignity)
  2. 多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity & Inclusion)
  3. 持続可能な社会(Sustainability)

B. 原則 OECDのAI原則等を踏まえ再構成。各主体は安全性・公平性・プライバシー保護・セキュリティ・透明性・アカウンタビリティを確保し、バリューチェーン全体で連携することが求められる。

C. 共通の指針(What) 全主体が取り組むべき10の指針:

  1. 人間中心:人間の尊厳・自律の尊重、意思決定操作の禁止、偽情報対策、多様性・包摂性確保、利用者支援、持続可能性確保
  2. 安全性:信頼性・堅牢性・制御可能性の確保、適正利用、適正学習
  3. 公平性:バイアスへの配慮、人間の判断の介在
  4. プライバシー保護:個人情報保護法等の遵守、プライバシー・バイ・デザイン
  5. セキュリティ確保:機密性・完全性・可用性の維持、最新動向への対応
  6. 透明性:検証可能性の確保、ステークホルダーへの情報提供、説明可能性の向上
  7. アカウンタビリティ:トレーサビリティ向上、責任者の明示、文書化
  8. 教育・リテラシー:AIリテラシー確保、リスキリング、ステークホルダーへのフォローアップ
  9. 公正競争確保:公正な競争環境の維持
  10. イノベーション:オープンイノベーション推進、相互運用性確保

D. 広島AIプロセス国際指針 G7で採択された「全てのAI関係者向けの広島プロセス国際指針」の11+1原則を紹介。リスク評価・透明性確保・セキュリティ投資・コンテンツ認証など高度なAIシステムに関する国際的な行動規範。

E. AIガバナンスの構築 「アジャイル・ガバナンス」の実践を推奨。環境・リスク分析→ゴール設定→システムデザイン→運用→評価のサイクルを継続的に回すことが重要。経営層のリーダーシップと、AI ガバナンスを組織文化として根付かせることが求められる。


第3部:AI開発者に関する事項

AIモデルを直接設計・変更できる立場として、最も大きな社会的影響力を持つ主体。主な求められる事項:

  • データ前処理時:適切なデータ収集(個人情報・知的財産への留意)、バイアス管理
  • AI開発時:安全性を考慮した開発(ガードレール技術等)、セキュリティ・バイ・デザイン、検証可能性の確保
  • AI開発後:最新セキュリティ動向への対応、ステークホルダーへの情報提供、開発関連情報の文書化

また「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」(I〜XI)に準拠することが求められ、G7合意の「報告枠組み」への参加も期待されている。


第4部:AI提供者に関する事項

AI開発者のシステムに付加価値を加えてAI利用者に提供する主体。主な求められる事項:

  • AIシステム実装時:リスク対策(ガードレール技術)、適正利用のための留意点設定、バイアス検討、プライバシー・バイ・デザイン、セキュリティ・バイ・デザイン、文書化
  • AIシステム・サービス提供後:定期的な適正利用検証、プライバシー侵害対策、脆弱性対応、ステークホルダーへの情報提供、サービス規約・プライバシーポリシーの文書化

第5部:AI利用者に関する事項

事業活動においてAIシステム・サービスを利用する主体。主な求められる事項:

  • AI提供者の定めた利用上の留意点の遵守
  • 正確性が担保されたデータ入力、出力の精度・リスク理解
  • バイアスへの配慮と責任ある出力結果の活用
  • 個人情報・機密情報の不適切入力防止
  • ステークホルダーへの説明責任の履行(AI利用の通知、問合せ窓口設置等)
  • AI提供者から提供された文書の適切な保管・活用

① AI 事業者ガイドライン(第 1.2 版)別添(付属資料)

項目内容
タイトルAI 事業者ガイドライン(第 1.2 版)別添(付属資料)
発行元経済産業省(日本政府)※本ガイドライン策定主体
発行日令和 8 年 3 月 31 日(2026年3月31日)
バージョン第 1.2 版
対象者AI 開発者・AI 提供者・AI 利用者(企業の経営層から実務担当者まで)
総ページ数185 ページ
リンクURLhttps://www.soumu.go.jp/main_content/001064286.pdf

📋 内容の詳細な要約

【別添.はじめに】

本資料は、AI 事業者ガイドライン本編(Why・What)の実践編(How)として位置づけられています。「AI 開発者」「AI 提供者」「AI 利用者」の三主体が、本編の指針を実現するための具体的アプローチを理解・実践できるよう、リファレンスとして作成されています。リスクベースアプローチを基本姿勢とし、全て画一的に実施することを求めるものではなく、各事業者が自社の状況に応じて活用することを期待しています。


【別添1:第1部関連 ― AI の前提とリスク/便益】

A. AI に関する前提

  • AIの学習・利用の流れ(訓練データ→AIモデル→推論)を図解で説明
  • AIシステムの概要(ファインチューニング・RAG・プロンプトエンジニアリング等)
  • AI開発から利用までのバリューチェーン(開発者→提供者→利用者)
  • 代表的なAIシステム・サービス例(採用AI、無人コンビニ、自律移動ロボット等)
  • AI事業者の3パターン(業務外利用者への便益提供型、事業者内利用型、サービス直接利用型)

B. AI による便益/リスク

便益の主な例:

  • 運営コスト削減、新製品・サービス創出、組織変革
  • 農業・教育・医療・製造・輸送など多分野への応用
  • 生成AIによるDX加速(コード生成、RAG活用、マルチモーダル対応)
  • AIエージェントによる複雑業務の自動化
  • フィジカルAIによる労働力不足補完・QOL向上

リスクの主な例(体系的分類):

リスク分類具体例
AIシステムへの攻撃データ汚染、プロンプトインジェクション、マルウェア生成
バイアスのある出力差別的採用判断、不公平なクレジット審査
ハルシネーション存在しない判例の引用、名誉毀損につながる虚偽情報生成
ブラックボックス化アルゴリズムの説明不能、説明責任の欠如
個人情報の不適切取扱情報漏洩、同意なき第三者提供
生命・財産への事故不適切な出力による深刻な損害
悪用音声合成詐欺、マルウェア自動生成
知的財産権侵害生成AIによる著作権侵害コード生成
偽・誤情報の拡散ディープフェイク、選挙干渉
民主主義への悪影響個人情報を使ったターゲティング選挙工作
多様性の喪失LLM出力の収束によるエコーチェンバー加速
環境負荷データセンターの電力消費増大

【別添2:AIガバナンスの構築】

AIガバナンスの構築に向けた行動目標を6フェーズ・16項目で体系化:

  1. 環境・リスク分析:便益/リスクの理解、社会的受容の把握、自社AI習熟度の評価
  2. ゴール設定:AIガバナンス・ゴールの設定
  3. システムデザイン:乖離評価・対応の仕組み化、人材リテラシー向上、部門間協力、インシデント予防
  4. 運用:AIマネジメントシステムの説明可能な運用状態の維持、ガバナンス実践状況の開示
  5. 評価:AIマネジメントシステムの機能検証、外部ステークホルダー意見の反映
  6. 再分析:環境・リスクの定期的な再評価

各行動目標には、仮想企業を想定した具体的な実践例(i〜v)が多数掲載されており、経営層への報告体制構築、AI倫理委員会の設置、OECD分類フレームワークの活用、インシデントデータベース(AIID等)の参照方法なども詳述されています。


【別添3:AI開発者向け】

  • AI開発における安全性・公平性・プライバシー保護・セキュリティ確保の具体的手法
  • 適切な学習データの選定、バイアス対策、ハルシネーション低減策
  • 「広島AIプロセス 国際行動規範」(高度なAIシステム開発組織向け)の解説と適合方法

【別添4:AI提供者向け】

  • AIシステム・サービスの提供時のリスク対策(脆弱性への対応・セキュリティ確保)
  • 利用者への「共通の指針」対応状況の説明・文書化・サービス規約の整備
  • 透明性・アカウンタビリティ確保のための情報開示実践

【別添5:AI利用者向け】

  • 入力データ・プロンプトに含まれるバイアスへの配慮
  • 個人情報の不適切入力・プライバシー侵害の防止策
  • 提供された文書の活用と規約の遵守、AI出力への過度な依存回避

【別添6:AI・データ利用に関する契約上の留意事項】

  • データの授受を行う際に「AI・データの利用に関する契約ガイドライン」を参照する際の注意点
  • データ提供者・受領者双方が合意・契約のうえでデータ活用を進めることの重要性を整理

総括: 本資料はAI事業者が直面する実務課題(ガバナンス構築、リスク管理、主体別対応)を網羅的かつ具体的にカバーしており、日本におけるAI事業実践の標準的リファレンスとして機能する重要文書です。 


① 別添9. 海外ガイドライン等の参照先(AI事業者ガイドライン 第1.2版)

項目内容
タイトル別添9. 海外ガイドライン等の参照先(AI事業者ガイドライン 第1.2版)
発行元日本政府(経済産業省・総務省等、AI事業者ガイドライン策定機関)
発行日令和8年3月31日(2026年3月31日)
バージョン第1.2版
対象者AI事業者(AI開発者・AI提供者・AI利用者)、政策担当者、ガイドライン参照者
総ページ数3ページ
リンクURLhttps://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20260331_8.pdf

🔍 内容の詳細な要約

参照対象の海外ガイドライン10件

番号文書名発行機関発行年
Advancing accountability in AIOECD2023年2月
Hiroshima AI Process Comprehensive Policy FrameworkG72023年12月
AI Risk Management Framework (AI RMF 1.0)NIST(米国)2023年1月
Cybersecurity FrameworkNIST(米国)2018年4月
Blueprint for an AI Bill of Rightsホワイトハウス(米国)2022年10月
Artificial Intelligence ActEU2024年8月
Guidelines for Secure AI System DevelopmentNCSC(英国)2023年11月
Ethics Guidelines for Trustworthy AIEU2019年4月
Guidelines for Privacy Impact AssessmentISO-
Recommendation on the Ethics of AIUNESCO2021年11月

対照表の構造と参照の読み方

本文書は、AI事業者ガイドライン本編・別添の各パートと、上記10の海外文書の該当セクションを対照させた一覧表です。主な対応関係は以下のとおりです。

第1部「AIとは」

  • OECDの「AI terms & concepts」や、EU AI ActのRecital 27・29、EUの信頼性を備えたAIのための倫理ガイドラインの人間の主体性・監視に関する章を参照。

第2部「共通の指針」

  • G7広島AIプロセス国際行動規範、NIST AI RMF(3.4 Accountable and Transparent、5.3 Measure)、UNESCO AI倫理勧告などを参照。

第3部「AI開発者に関する事項」

  • データ前処理・学習時:NIST AI RMF「3.1 Valid and Reliable」「3.7 Fair – with Harmful Bias Managed」
  • AI開発時:NIST AI RMF「3.2 Safe」、NIST CSFのサイバーセキュリティプログラム関連章、英国NCSCの「Secure design / development / deployment / operation」
  • AIシステム実装時:OECD「5.1 Monitor, document, communicate and consult」

第4部「AI提供者に関する事項」

  • OECD、G7広島AIプロセス、NIST AI RMF(透明性・説明責任関連)、米国AI権利章典(自動化システムへの期待事項)を参照。

第5部「AI利用者に関する事項」

  • 第4部と同様の海外文書群(OECD、NIST AI RMF、米国AI権利章典)を参照。

第2部E「AIガバナンスの構築」

  • NIST AI RMF「5.3 Measure」「3.5 Explainable and Interpretable」、NISTの説明可能AIの4原則(2020年)を参照。

利用上の注意点

  • 本表はあくまでガイドライン公開時点の参照関係であり、各海外ガイドラインが更新・改版された場合、対応関係が変わる可能性があります。
  • 本表を活用することで、日本のAI事業者ガイドラインの各記載がどの国際文書のどのセクションに基づいているかを効率的に確認できます。

他のガイドラインは以下よりご覧ください
AIガイドライン 18本 構造化インデックス
【一覧】日本政府 AIガイドライン 18本【INDEX】
タグ

人気の投稿

プロフィール:このブログについて 私はこれまで、IT・デザイン・セキュリティという3つの視点から、国家資格の取得を通じて技術や安全のあり方を学んできました。 ウェブデザイン技能検定 2級(国家資格) 情報の整理(構造化)や、使う人が迷わない設計(UX)に関する技術。 情報セキュリティマネジメント試験(国家資格) 大切なデータを守り、適切に扱うための情報リテラシー。 これらの学びは、複雑なAIの世界を紐解くための私の「土台」となっています。 AIとの歩みと、このブログへの想い AI(人工知能)が「ChatGPT」として私たちの前に現れたのは、2022年11月のことでした。今では一部で「チャッピー」という愛称で親しまれるほど身近な存在になりましたが、同時に「何だか難しそう」「セキュリティは大丈夫?」といった不安を感じる方も多いのではないでしょうか。 私自身、ChatGPTの登場当初から、GoogleのGeminiやAnthropicのClaudeなど、各社のサービスを日々の生活や仕事に取り入れ、試行錯誤を繰り返しながら学んできました。 使えば使うほどその便利さに驚く一方で、専門的なバックグラウンドを持つ人間として、 「この技術を正しく、安全に使うための橋渡しがしたい」 という想いが強くなりました。 このブログでお伝えしたいこと 難しい理屈を並べるのではなく、等身大の視点で以下の2つを大切に発信していきます。 まずは無料で体験してみる コストをかけずに、今すぐ日常を少し便利にするためのヒントを共有します。 国のガイドラインを味方につける 総務省や経済産業省などが公開している「無料の公式情報」をベースに、安心・安全な活用方法を分かりやすく噛み砕いて解説します。 最新のテクノロジーを、背伸びせず、正しく、そして楽しく。 皆さんがAIと心地よく付き合っていくための、小さなガイドブックのような場所を目指しています。

⑰ 農業分野におけるAI・データに関する契約ガイドライン ―ノウハウ活用編―

⑰ 農業分野におけるAI・データに関する契約ガイドライン ―ノウハウ活用編― 項目 内容 タイトル 農業分野におけるAI・データに関する契約ガイドライン ―ノウハウ活用編― 発行元 農林水産省 発行日 令和2年3月(2020年3月) バージョン 記載なし(初版) 対象者 農業従事者・農業団体・農業普及指導員、AI研究開発委託者・受託者(国・地方公共団体・民間企業・研究機関)、AI製品・サービス提供者、第三者(知的財産受領者)、関連法律実務家 総ページ数 149ページ(本編+別添ユースケース) リンクURL https://www.maff.go.jp/j/kanbo/tizai/brand/attach/pdf/keiyaku-1.pdf 📋 内容の詳細な要約 第1章:総論 農業分野ではスマート農業の普及に伴い、AIを利用した製品・サービスが増加している。農業関係者は「研究開発への協力者」と「サービス利用者」の二つの役割を担う。現状では農業関係者とベンダ間の契約内容が各社で大きく異なり、データやノウハウの権利関係・第三者提供範囲などが不明確なケースが多い。本ガイドラインは、経済産業省の「AI・データの利用に関する契約ガイドライン(AI編)」および農水省の「農業分野におけるデータ契約ガイドライン(データ利活用編)」を補完・拡張し、農業分野固有の課題(熟練農業者のノウハウ保護、国・地方公共団体が委託者となる特殊性等)に対応することを目的とする。 第2章:契約の基本的事項 AIを利用した製品・サービスに関連する知的財産(生データ・教師データ・学習用データセット・学習済みパラメータ・推論プログラム等)の関係を整理。学習済みパラメータは著作権の対象になりにくいため、契約による保護が重要となる。契約の目的設定が極めて重要であり、国・地方公共団体が資金提供する場合は競争力強化や地域外流出防止などの政策目的に応じた制限が必要となる。当事者は農業関係者等・AI研究開発委託者(国、地方公共団体、受託契約管理団体等)・AI研究開発者・第三者の4類型に整理される。 第3章:契約上の留意事項 AIの性能保証が困難であること、学習済みモデルの内容が学習データに依存すること、ノウハウの重要性が高い...

⑧ 初等中等教育段階における生成AIの利活用に関するガイドライン

⑧ 初等中等教育段階における生成AIの利活用に関するガイドライン 項目 内容 タイトル 初等中等教育段階における生成AIの利活用に関するガイドライン 発行元 文部科学省 初等中等教育局 発行日 令和6年(2024年)12月26日 バージョン Ver. 2.0 対象者 教職員・教育委員会等の学校教育関係者 総ページ数 33ページ リンクURL https://www.mext.go.jp/content/20241226-mxt_shuukyo02-000030823_001.pdf 詳細な内容要約 はじめに 生成AIが急速に社会普及する中、令和5年7月公表の暫定版(Ver.1.0)を改訂。令和6年7月に設置した「検討会議」での議論をもとに、技術進展や学校現場の実態を反映し読み手に寄り添った構成に改めた。本ガイドラインは 参考資料 であり、一律禁止・義務付けは行わない。 1. 生成AIについて ChatGPT登場(2022年11月)以降、文章・画像・音声・動画など マルチモーダル に急速進化 学校現場でも1人1台端末・検索エンジン・学習支援ソフトに組み込まれつつある ハルシネーション (誤出力)、バイアス・偏見の再生成、個人情報漏洩などのリスクも存在 RAG(検索拡張生成)など技術的対策も進展中 2. 基本的な考え方 (1)人間中心の生成AI利活用 生成AIは人間と対立するものではなく、 能力を補助・拡張する道具 として捉える 最終判断は常に人間が行い、成果物への責任も人間が持つ 児童生徒の学びでは、資質・能力育成に資するかを吟味した上で活用すること 教師の専門性・人格的触れ合いはAI時代においてより重要になる (2)情報活用能力の育成強化 「情報活用能力(情報モラルを含む)」は学習指導要領で 学習の基盤となる資質・能力 と位置付け 知識・技能/思考力・判断力・表現力/学びに向かう力の3つの柱で整理 ファクトチェック能力の育成、フィルターバブル対策など情報モラル教育の充実が急務 3. 学校現場において押さえておくべきポイント 共通する 5つの観点 を提示: 観点 内容 ①安全性を考慮した適正利用 利用規約の確...

⑱ AIディスカッションペーパー(第1.1版)― 金融分野におけるAIの健全な利活用の促進に向けた初期的な論点整理 ―

⑱ AIディスカッションペーパー(第1.1版)― 金融分野におけるAIの健全な利活用の促進に向けた初期的な論点整理 ― 項目 内容 タイトル AIディスカッションペーパー(第1.1版)― 金融分野におけるAIの健全な利活用の促進に向けた初期的な論点整理 ― 発行元 金融庁(Financial Services Agency) 発行日 2026年3月 バージョン 第1.1版(第1.0版を2025年6月〜12月の「金融庁AI官民フォーラム」の知見を踏まえ改訂) 対象者 金融機関・フィンテック事業者・監査法人等の金融分野事業者、および金融行政関係者 総ページ数 55ページ リンクURL https://www.fsa.go.jp/news/r7/sonota/20260303/aidp_version1.1.pdf 内容詳細要約 Ⅰ・Ⅱ 背景と目的 生成AIの急速な性能向上により、AIは社会に広範実装される段階に達しつつある。日本では「AIを安全に利用できる」と考える人の割合が諸外国と比べ低く、利活用に躊躇する声が多い。金融庁は「チャレンジしないリスク」を強調し、リスクベース・アプローチのもとで積極的な活用を促す立場を明確にしている。本文書はモニタリング上の規制目線を示すものではなく、あくまで対話のための初期的論点整理として位置づけられる。 Ⅲ 金融分野におけるAIの活用可能性とユースケース 従来型AIの主なユースケース(アンケート結果) 回答先の9割以上が何らかのAIを活用済みと判明。主要なユースケースは以下の4分野。 業務効率化 :書類テキスト化(OCR)、社内情報検索チャットボット 対顧客サービス :問い合わせチャットボット、マーケティング・顧客リスト最適化 リスク管理高度化 :AML/CFT取引モニタリング、与信審査・信用スコアリング、保険金不正検知 市場予測等 :為替・金利予測、ポートフォリオ最適化、SNS自然言語処理によるセンチメント分析 生成AIの導入状況 7割超の金融機関が幅広く一般社員への利用を認めており、文書要約・翻訳・校正の3ユースケースはすでに7割以上が導入済み。約半数は汎用生成AIをそのまま利用し、残りはRAG(検索拡張生成)やファイン...

【一覧】日本政府 AIガイドライン 18本【INDEX】

生成AIの急速な普及を受け、日本政府では複数の省庁にわたって AIに関するガイドライン・指針 が相次いで整備されています。 総務省・経済産業省・文部科学省・内閣府・デジタル庁・金融庁など、各省庁がそれぞれの分野や対象者に応じた指針を策定しており、 その数は現在 18本(文書数にして30点以上) に上ります。 本ページでは、日本政府が公表しているAI関連ガイドラインを一覧として整理しています。 事業者・自治体・教育機関・医療機関・農業関係者・金融機関など、関係する方々がそれぞれに必要な指針に アクセスしやすいよう、発行元・概要とあわせてまとめました。ぜひご活用ください。 あなたの立場から必要なガイドラインへ最短でアクセスできる 18本 構造化インデックス を活用ください。 【一覧】日本政府 AIガイドライン 18本 ① 総務省・経済産業省 AI事業者ガイドライン 📄 AI事業者ガイドライン AIの開発・提供・利用に携わる国内外の事業者(公的機関含む)を対象に、安全安心なAI活用のための統一的な指針を示すガイドライン。「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ」「透明性」「アカウンタビリティ」の7つを共通指針として定め、AI開発者・提供者・利用者それぞれに求められる具体的な行動を整理している。法的拘束力のないソフトローとして、リスクベースアプローチに基づき、イノベーション促進とリスク低減の両立を目指している。 📄 AI事業者ガイドライン(第1.2版)別添(付属資料) 本資料は日本政府が策定した「AI事業者ガイドライン」の付属資料(別添)であり、本編の理念・指針(Why・What)を受け、AI事業者が実践すべき具体的な方法(How)を解説したリファレンス集です。AI開発者・提供者・利用者の三者それぞれに向けた実践的な解説と事例が体系的に整理されており、AIガバナンスの構築手順や具体的な取組例が豊富に掲載されています。リスクベースアプローチの考え方を基本に、AIの便益を最大化しつつリスクを管理するための実践知をまとめた実務必携の資料です。 📄 別添9. 海外ガイドライン等の参照先(AI事業者ガイドライン 第1.2版) AI事業者ガイドライン(第1.2版)が参照している主要な海外ガイドライン・フレームワーク10件をまとめた対照表です。国内ガイド...

AIガイドライン 18本 構造化インデックス

🇯🇵 日本政府 AIガイドライン 18本 構造化インデックス 各省庁が発行するAI指針を「CATEGORY A〜D」の4軸で分類。あなたの立場(開発者・利用者・行政・教育)から必要なガイドラインへ最短でアクセスできます。 【一覧表からアクセスできる ガイドライン 18本 INDEX もご活用ください。 発行元:総務省・経産省・文科省・厚労省・農水省・文化庁・デジタル庁・個人情報保護委員会・金融庁・内閣府・こども家庭庁 | 最終更新:2026年5月版を反映| NoMan Logic による構造化 — AIによる自動抽出を考慮して構造化されています CATEGORY A AI活用の基礎・汎用ルール すべてのAI利用者・事業者がまず参照すべき「地図」となるガイドラインです。 ① AI事業者ガイドライン(第1.2版) 総務省・経済産業省|2026年3月31日 AIの開発・提供・利用に携わるすべての事業者向け最上位指針。「人間中心」「安全性」「公平性」「プライバシー」「セキュリティ」「透明性」「アカウンタビリティ」の7共通指針を定め、リスクベースアプローチでイノベーション促進とリスク低減の両立を図る。 最重要 開発者 提供者 利用者 ② 生成AIはじめの一歩 〜生成AIの入門的な使い方と注意点〜 総務省 IT専門知識がない一般の方向けの入門教材。情報の正確性・情報流出・著作権侵害・モラルの4注意点を網羅。各章に理解度チェック問題付き。 入門 一般利用者 ⑦ コンテンツ制作のための生成AI利活用ガイドブック 経済産業省 ゲーム・アニメ・広告産業の実際の利活用ケースを紹介しつつ、著作権・意匠権・商標権・肖像権等の知財保護の観点から各活用シーンの留意点を解説。 クリエイター コンテンツ 知財 ⑪ 生成AIサービスの利用に関する注意喚起等について 個人情報保護委員会|2023年6月 生成AIサービス(ChatGPT等)普及を受けた個人情報保護の注意喚起。個人情報取扱事業者・行政機関・一般利用者の3区分で遵守事項を整理。 プライバシー 必読 CATEGORY B 公的機関・教育現場の実装ルール 行政や教育機関など、公共性の高い場所での導入・調達基準です。 ③ 自治体におけるAI活用・導入ガイドブック(導入手順編・第4版) 総務省 地方公共団体向けの実践ガイドブック。先行自治体によ...

⑯ 医療デジタルデータのAI研究開発等への利活用に係るガイドライン

⑯ 医療デジタルデータのAI研究開発等への利活用に係るガイドライン 項目 内容 タイトル 医療デジタルデータのAI研究開発等への利活用に係るガイドライン 発行元 デジタルデータのAI研究開発等への利活用に係るガイドライン作成班(厚生労働科学研究費補助金・政策科学総合研究の一環) 発行日 令和6年3月31日(2024年3月31日) バージョン 初版 対象者 医療機関等の医療従事者、学術研究機関等の研究者、民間企業等の開発担当者(主に診断用医療AIソフトウェアの共同開発に携わる関係者) 総ページ数 61ページ リンクURL https://www.mhlw.go.jp/content/001310044.pdf 内容の詳細な要約 第1章:はじめに AI技術の発展により、病院に蓄積された大量の医療情報を活用した研究開発競争が世界的に激化している。一方、医療情報は要配慮個人情報に該当し、原則として本人の同意なく利活用できない。過去患者から個別に同意を取得することは現実的に困難なため、仮名加工情報の枠組みを活用した解決策の整備が求められていた。本ガイドラインは令和4〜5年度の厚労科研の一環として策定された。 第2章:医療情報の利活用と法的根拠 医療情報の利用目的を「診療目的」「学術研究目的」「製品開発目的」の3類型に整理。個人情報保護法上の重要な規律として以下の3つを解説している。 利用目的による制限 (第18条):目的外利用の禁止と例外事由 要配慮個人情報の取得の制限 (第20条第2項):原則同意必要、学術・公衆衛生例外あり 第三者提供の制限 (第27条第1項):原則同意必要、学術・公衆衛生例外あり 「学術研究例外」は、学術研究機関等(主体要件)が学術研究目的(目的要件)で取り扱う場合に適用され、民間企業等と共同研究を行う場合も包含される。一方「製品開発のみ」の目的には学術研究例外は適用されない。「公衆衛生例外」は同意取得が困難な場合に限り適用可能。委託・共同利用を根拠とした製品開発目的での民間企業への提供は困難なケースが多い。 第3章:仮名加工情報とその共同利用 仮名加工情報は、氏名等を削除することで他の情報と照合しない限り個人を特定できなくした情報で、利用目的の変...

アーカイブ

自己紹介

ノーマン・AI研究所
私はこれまで、IT・デザイン・セキュリティという3つの視点から、国家資格の取得を通じて技術や安全のあり方を学んできました。ウェブデザイン技能検定 2級(国家資格)、情報セキュリティマネジメント試験(国家資格)これらの学びは、複雑なAIの世界を紐解くための私の「土台」となっています。このブログでは、まずは無料で体験してみる、コストをかけずに、今すぐ日常を少し便利にするためのヒントを共有します。総務省や経済産業省などが公開している「無料の公式情報」をベースに、安心・安全な活用方法を分かりやすく噛み砕いて解説します。最新のテクノロジーを、背伸びせず、正しく、そして楽しく。皆さんがAIと心地よく付き合っていくための、小さなガイドブックのような場所を目指しています。
詳細プロフィールを表示