最新のテクノロジーを、背伸びせず、正しく、そして楽しく。 皆さんがAIと心地よく付き合っていくための、小さなガイドブックのような場所を目指しています。

④ AIのセキュリティ確保のための技術的対策に係るガイドライン

2026年5月14日  2026年5月14日 

④ AIのセキュリティ確保のための技術的対策に係るガイドライン

項目 内容
タイトル AIのセキュリティ確保のための技術的対策に係るガイドライン
発行元 総務省
発行日 令和8年3月(2026年3月)
バージョン 初版(別添の付属資料あり)
対象者 AI開発者・AI提供者(AI事業者ガイドラインが定義する事業者)
総ページ数 25ページ(用語集含む)
リンクURL https://www.soumu.go.jp/main_content/001064122.pdf

📋 内容の詳細要約

策定背景

生成AIの急速な社会実装に伴い、AI自体へのサイバー攻撃リスクが顕在化。「デジタル社会の実現に向けた重点計画」(令和7年6月閣議決定)および「サイバーセキュリティ2025」に基づき、総務省がサイバーセキュリティタスクフォース傘下の「AIセキュリティ分科会」での検討(令和7年9月〜12月)を経て策定。


1. スコープ・位置づけ

  • 主な対象AI:LLMおよびLLMを構成要素に含むAIシステム(AIエージェントは技術発展途上のため対象外)
  • 他ガイドラインとの関係:「AI事業者ガイドライン」「AIセーフティに関する評価観点ガイド(AISI)」「レッドチーミング手法ガイド(AISI)」「デジタル庁の生成AI調達ガイドライン」と相互補完的な位置づけ
  • セキュリティの定義:不正操作による機密情報漏えい・AIシステムの意図せぬ変更や停止が生じない状態の維持

2. 対象とする主な脅威

① プロンプトインジェクション攻撃

細工したプロンプトや参照データを用いてLLMに不正な出力をさせる攻撃。2種類に分類される。

種類 概要 手口の例
直接型 攻撃者が直接細工プロンプトを入力 指示の上書き、ロールプレイ、Unicode埋め込み、別タスクへの置き換え
間接型 LLMが参照する外部データに不正指示を仕込む 細工したWebページ・メールを参照させる

不正出力の例:RAGデータストアの内容漏えい、SQLインジェクション誘発、システムプロンプトの漏えい、誤情報の出力など。

② DoS攻撃(サービス拒否攻撃)

LLMに膨大な処理を要するプロンプトを送り込み、計算資源を枯渇させてサービスを遅延・停止させる攻撃。APIキーの利用上限到達による停止や経済的損失も含む(スポンジ攻撃など)。

③ その他の脅威(前提条件が必要なもの)

  • データポイズニング攻撃:学習データに細工してLLMの挙動を操作
  • 細工モデル導入攻撃:悪意あるモデルをAIシステムに組み込ませる
  • モデル抽出攻撃:LLMへの繰り返しアクセスにより類似モデルを複製・機密情報を窃取

3. 脅威への対策

AI開発者の対策

  • 安全基準等の学習による不正な指示への耐性向上(事後学習・ファインチューニング)
  • 指示の優先度定義(システムプロンプトを優先処理)
  • 活用ツール例:AISI「AIセーフティ評価ツール」、NII「AnswerCarefully」、NICT開発中の評価基盤

AI提供者の対策

  • システムプロンプトによる制約・セキュリティ注意事項の設定(APIキー等を直接記述しない)
  • ガードレール(外部機構)による入出力・外部参照データの検証・無害化・拒否
  • オーケストレータ・RAG等の権限管理(最小権限の原則、ユーザ役割に応じたアクセス制御)

共通の基本対策

  • 監査ログ保存によるトレーサビリティ確保
  • レートリミットの導入
  • 開発者の適切な権限管理
  • 構成要素の信頼性確認(基盤モデルの開示情報確認等)
  • 継続的なレッドチーミングによる有効性検証

なお、対策を講じ機密データを適切に管理している場合、情報漏えいが起きても「営業秘密」(不正競争防止法)による保護を受けられる可能性があるとも言及されている。


4. 想定事例による分析

事例 想定ユーザ 外部連携 主な脅威 主な対策
事例1:内部向けチャットボット(RAG利用) 組織内ユーザ(攻撃者含む) 内部RAGデータストア 直接・間接プロンプトインジェクション(RAGデータ窃取等) 安全基準学習・システムプロンプト・ガードレール・権限管理
事例2:外部向けチャットボット(外部連携) 組織外ユーザ(攻撃者含む) インターネット公開情報 直接PI(システムプロンプト窃取)・DoS・間接PI(Webページ経由) 安全基準学習・システムプロンプト・ガードレール

5. 今後の課題・展望

VLM(画像×テキスト統合AI)・AIエージェント・MCP(Model Context Protocol)など複雑化する技術への対応は本ガイドラインの対象外であり、今後の技術進展を踏まえ追補・改訂を行っていく方針。


④ AIのセキュリティ確保のための技術的対策に係るガイドライン 別添(付属資料)

項目内容
タイトルAIのセキュリティ確保のための技術的対策に係るガイドライン 別添(付属資料)
発行元総務省(サイバーセキュリティタスクフォース・AIセキュリティ分科会)
発行日令和8年3月(2026年3月)
バージョン記載なし(令和7年12月取りまとめを踏まえた版)
対象者AI開発者・AI提供者(LLMや画像識別AIを開発・運用する事業者)
総ページ数20ページ
リンクURLhttps://www.soumu.go.jp/main_content/001064123.pdf

📚 内容の詳細な要約

I. LLMの脅威に対する対策

1. AI開発者における対策

安全基準等の学習による耐性向上として、以下の2つの手法が示されている。

  • 安全基準の学習:RLHF(人間のフィードバックに基づく強化学習)やSFT(教師ありファインチューニング)を用いて、不法行為の助長・差別的表現・偽情報・機密漏えいを防ぐ安全基準をLLMに事後学習させる手法。プロンプトインジェクション攻撃への直接・間接的リスクを低減する。
  • 指示の階層化:システムプロンプト等の優先度の高い指示を常に優先処理するよう学習させ、ユーザ入力や外部情報が上位の指示と矛盾する場合に低優先指示を無効化する仕組み。

2. AI提供者における対策

2.1 システムプロンプトによる耐性向上

  • システムプロンプトの強化:制約事項やセキュリティ注意事項をシステムプロンプトに組み込む。具体的な指示内容例として、LLMの役割変更への警告、システムプロンプト内情報の非公開、SQLインジェクション対策(指定テーブルのみ参照・読み取り専用・全データ一括取得禁止)などが示されている。システムプロンプトの構成要素として「役割の定義」「遵守すべきルール」「禁止事項カテゴリ」「応答ルール」「入力解釈方針」の5要素が例示されている。
  • 機密情報のシステムプロンプトからの分離:APIキー・認証情報・DB名等の機密情報をシステムプロンプトに直接埋め込まず、KMS(キー管理システム)・環境変数・コードによる設定で外部管理する。

2.2 ガードレール等による入出力・外部参照データの検証

  • 入力プロンプトの検証:ブロックリスト方式("drop table"・"rm -rf"等の禁止文字列との照合)とガードレール用LLMによる方式を併用。DoS攻撃対策として入力長の制限も有効。
  • 外部参照データの検証:LLMが参照する外部データを処理前に検証し、不正指示を検知した場合は拒否する。取得元の信頼性事前確認も推奨。
  • 外部参照データの分離:ユーザ入力と外部参照データをタグ(例:[USER_INPUT][EXTERNAL_DATA])で明確に区別し、セクション分離・メタデータ(信頼性レベル「高/低」)を活用してLLMに処理優先度を認識させる。
  • 出力データの検証:ブロックリスト(メールアドレス・個人名・住所等の漏えい防止)・ガードレール用LLMによる応答評価・構造化出力(不正パラメータ注入防止)の3手法を提示。出力長の制限もDoS対策として有効。
  • 回答する情報の制御:トークン出現確率等の追加情報はモデル抽出攻撃に悪用される恐れがあるため、出力しないか、ランダム値の付加・値の丸め等で加工する。

2.3 オーケストレータやRAG等の権限管理

  • オーケストレータの権限管理:最小権限の原則に基づきオーケストレータを管理者権限で動かさない。DBロールによるSQLクエリ制限(SELECT権限のみ付与等)や、実行前のユーザ確認ダイアログ設置が有効。sudo rm -rf /のような破壊的コマンド生成・実行リスクの低減が目的。
  • RAGデータ・データストアのアクセス制御:ベクトルデータにメタデータタグ(部署限定・役職別等)を付与してアクセス制御、マルチテナント構造(名前空間を活用したユーザ・グループ別インスタンス分離)、データストアへの最小限アクセス権限設定の3手法を提示。

II. 画像識別AI(CNN)に対する脅威と対策

VLM(視覚言語モデル)の普及に伴い、CNN向け攻撃手法が転用できるケースがあることを踏まえ、3カテゴリに分類して整理されている。

1. 入力により実施可能な攻撃

  • 敵対的サンプル(回避攻撃):微小ノイズを加えた画像で誤識別を誘発(例:通行止め標識→速度標識と誤認)。対策は「敵対的学習(Adversarial Training)」とカラービット深度低減による検知。
  • DoS攻撃:処理負荷の高い細工画像を入力して応答遅延・停止を誘発。対策は閾値設定によるフィルタリングと最大遅延・最大消費の設計への織り込み。

2. 前提条件が必要な攻撃

  • データポイズニング攻撃:学習データを汚染して誤認識を誘発。対策は学習データの信頼性確認。
  • 細工モデルの導入攻撃:細工済みCNNを外部提供し組み込ませる。対策は導入モデルの信頼性確認。

3. 入出力分析を通じた攻撃

  • モデル抽出攻撃:挙動観察によるモデル複製。対策は信頼度スコアの丸め・レートリミット導入。
  • メンバーシップ推論攻撃:出力分析により学習データセットを推測。対策は過学習の抑制・スコアの丸め。
  • モデル反転攻撃:出力(確信度)から学習画像データを逆算・復元。対策はスコアの丸め・内部情報出力の制限。

参考:新たな脅威・対策に係る情報源

arXiv、MITRE ATLAS、OWASP、AI Incident Database、AIセキュリティポータル、政府機関ホワイトペーパー(NIST・CSET等)、セキュリティベンダー製品情報、Black Hat等のカンファレンス、ニュースサイト・技術ブログ、SNS、GitHubの計10種類の情報源が紹介されている。

他のガイドラインは以下よりご覧ください
AIガイドライン 18本 構造化インデックス
【一覧】日本政府 AIガイドライン 18本【INDEX】

タグ

人気の投稿

プロフィール:このブログについて 私はこれまで、IT・デザイン・セキュリティという3つの視点から、国家資格の取得を通じて技術や安全のあり方を学んできました。 ウェブデザイン技能検定 2級(国家資格) 情報の整理(構造化)や、使う人が迷わない設計(UX)に関する技術。 情報セキュリティマネジメント試験(国家資格) 大切なデータを守り、適切に扱うための情報リテラシー。 これらの学びは、複雑なAIの世界を紐解くための私の「土台」となっています。 AIとの歩みと、このブログへの想い AI(人工知能)が「ChatGPT」として私たちの前に現れたのは、2022年11月のことでした。今では一部で「チャッピー」という愛称で親しまれるほど身近な存在になりましたが、同時に「何だか難しそう」「セキュリティは大丈夫?」といった不安を感じる方も多いのではないでしょうか。 私自身、ChatGPTの登場当初から、GoogleのGeminiやAnthropicのClaudeなど、各社のサービスを日々の生活や仕事に取り入れ、試行錯誤を繰り返しながら学んできました。 使えば使うほどその便利さに驚く一方で、専門的なバックグラウンドを持つ人間として、 「この技術を正しく、安全に使うための橋渡しがしたい」 という想いが強くなりました。 このブログでお伝えしたいこと 難しい理屈を並べるのではなく、等身大の視点で以下の2つを大切に発信していきます。 まずは無料で体験してみる コストをかけずに、今すぐ日常を少し便利にするためのヒントを共有します。 国のガイドラインを味方につける 総務省や経済産業省などが公開している「無料の公式情報」をベースに、安心・安全な活用方法を分かりやすく噛み砕いて解説します。 最新のテクノロジーを、背伸びせず、正しく、そして楽しく。 皆さんがAIと心地よく付き合っていくための、小さなガイドブックのような場所を目指しています。

⑰ 農業分野におけるAI・データに関する契約ガイドライン ―ノウハウ活用編―

⑰ 農業分野におけるAI・データに関する契約ガイドライン ―ノウハウ活用編― 項目 内容 タイトル 農業分野におけるAI・データに関する契約ガイドライン ―ノウハウ活用編― 発行元 農林水産省 発行日 令和2年3月(2020年3月) バージョン 記載なし(初版) 対象者 農業従事者・農業団体・農業普及指導員、AI研究開発委託者・受託者(国・地方公共団体・民間企業・研究機関)、AI製品・サービス提供者、第三者(知的財産受領者)、関連法律実務家 総ページ数 149ページ(本編+別添ユースケース) リンクURL https://www.maff.go.jp/j/kanbo/tizai/brand/attach/pdf/keiyaku-1.pdf 📋 内容の詳細な要約 第1章:総論 農業分野ではスマート農業の普及に伴い、AIを利用した製品・サービスが増加している。農業関係者は「研究開発への協力者」と「サービス利用者」の二つの役割を担う。現状では農業関係者とベンダ間の契約内容が各社で大きく異なり、データやノウハウの権利関係・第三者提供範囲などが不明確なケースが多い。本ガイドラインは、経済産業省の「AI・データの利用に関する契約ガイドライン(AI編)」および農水省の「農業分野におけるデータ契約ガイドライン(データ利活用編)」を補完・拡張し、農業分野固有の課題(熟練農業者のノウハウ保護、国・地方公共団体が委託者となる特殊性等)に対応することを目的とする。 第2章:契約の基本的事項 AIを利用した製品・サービスに関連する知的財産(生データ・教師データ・学習用データセット・学習済みパラメータ・推論プログラム等)の関係を整理。学習済みパラメータは著作権の対象になりにくいため、契約による保護が重要となる。契約の目的設定が極めて重要であり、国・地方公共団体が資金提供する場合は競争力強化や地域外流出防止などの政策目的に応じた制限が必要となる。当事者は農業関係者等・AI研究開発委託者(国、地方公共団体、受託契約管理団体等)・AI研究開発者・第三者の4類型に整理される。 第3章:契約上の留意事項 AIの性能保証が困難であること、学習済みモデルの内容が学習データに依存すること、ノウハウの重要性が高い...

⑧ 初等中等教育段階における生成AIの利活用に関するガイドライン

⑧ 初等中等教育段階における生成AIの利活用に関するガイドライン 項目 内容 タイトル 初等中等教育段階における生成AIの利活用に関するガイドライン 発行元 文部科学省 初等中等教育局 発行日 令和6年(2024年)12月26日 バージョン Ver. 2.0 対象者 教職員・教育委員会等の学校教育関係者 総ページ数 33ページ リンクURL https://www.mext.go.jp/content/20241226-mxt_shuukyo02-000030823_001.pdf 詳細な内容要約 はじめに 生成AIが急速に社会普及する中、令和5年7月公表の暫定版(Ver.1.0)を改訂。令和6年7月に設置した「検討会議」での議論をもとに、技術進展や学校現場の実態を反映し読み手に寄り添った構成に改めた。本ガイドラインは 参考資料 であり、一律禁止・義務付けは行わない。 1. 生成AIについて ChatGPT登場(2022年11月)以降、文章・画像・音声・動画など マルチモーダル に急速進化 学校現場でも1人1台端末・検索エンジン・学習支援ソフトに組み込まれつつある ハルシネーション (誤出力)、バイアス・偏見の再生成、個人情報漏洩などのリスクも存在 RAG(検索拡張生成)など技術的対策も進展中 2. 基本的な考え方 (1)人間中心の生成AI利活用 生成AIは人間と対立するものではなく、 能力を補助・拡張する道具 として捉える 最終判断は常に人間が行い、成果物への責任も人間が持つ 児童生徒の学びでは、資質・能力育成に資するかを吟味した上で活用すること 教師の専門性・人格的触れ合いはAI時代においてより重要になる (2)情報活用能力の育成強化 「情報活用能力(情報モラルを含む)」は学習指導要領で 学習の基盤となる資質・能力 と位置付け 知識・技能/思考力・判断力・表現力/学びに向かう力の3つの柱で整理 ファクトチェック能力の育成、フィルターバブル対策など情報モラル教育の充実が急務 3. 学校現場において押さえておくべきポイント 共通する 5つの観点 を提示: 観点 内容 ①安全性を考慮した適正利用 利用規約の確...

⑱ AIディスカッションペーパー(第1.1版)― 金融分野におけるAIの健全な利活用の促進に向けた初期的な論点整理 ―

⑱ AIディスカッションペーパー(第1.1版)― 金融分野におけるAIの健全な利活用の促進に向けた初期的な論点整理 ― 項目 内容 タイトル AIディスカッションペーパー(第1.1版)― 金融分野におけるAIの健全な利活用の促進に向けた初期的な論点整理 ― 発行元 金融庁(Financial Services Agency) 発行日 2026年3月 バージョン 第1.1版(第1.0版を2025年6月〜12月の「金融庁AI官民フォーラム」の知見を踏まえ改訂) 対象者 金融機関・フィンテック事業者・監査法人等の金融分野事業者、および金融行政関係者 総ページ数 55ページ リンクURL https://www.fsa.go.jp/news/r7/sonota/20260303/aidp_version1.1.pdf 内容詳細要約 Ⅰ・Ⅱ 背景と目的 生成AIの急速な性能向上により、AIは社会に広範実装される段階に達しつつある。日本では「AIを安全に利用できる」と考える人の割合が諸外国と比べ低く、利活用に躊躇する声が多い。金融庁は「チャレンジしないリスク」を強調し、リスクベース・アプローチのもとで積極的な活用を促す立場を明確にしている。本文書はモニタリング上の規制目線を示すものではなく、あくまで対話のための初期的論点整理として位置づけられる。 Ⅲ 金融分野におけるAIの活用可能性とユースケース 従来型AIの主なユースケース(アンケート結果) 回答先の9割以上が何らかのAIを活用済みと判明。主要なユースケースは以下の4分野。 業務効率化 :書類テキスト化(OCR)、社内情報検索チャットボット 対顧客サービス :問い合わせチャットボット、マーケティング・顧客リスト最適化 リスク管理高度化 :AML/CFT取引モニタリング、与信審査・信用スコアリング、保険金不正検知 市場予測等 :為替・金利予測、ポートフォリオ最適化、SNS自然言語処理によるセンチメント分析 生成AIの導入状況 7割超の金融機関が幅広く一般社員への利用を認めており、文書要約・翻訳・校正の3ユースケースはすでに7割以上が導入済み。約半数は汎用生成AIをそのまま利用し、残りはRAG(検索拡張生成)やファイン...

【一覧】日本政府 AIガイドライン 18本【INDEX】

生成AIの急速な普及を受け、日本政府では複数の省庁にわたって AIに関するガイドライン・指針 が相次いで整備されています。 総務省・経済産業省・文部科学省・内閣府・デジタル庁・金融庁など、各省庁がそれぞれの分野や対象者に応じた指針を策定しており、 その数は現在 18本(文書数にして30点以上) に上ります。 本ページでは、日本政府が公表しているAI関連ガイドラインを一覧として整理しています。 事業者・自治体・教育機関・医療機関・農業関係者・金融機関など、関係する方々がそれぞれに必要な指針に アクセスしやすいよう、発行元・概要とあわせてまとめました。ぜひご活用ください。 あなたの立場から必要なガイドラインへ最短でアクセスできる 18本 構造化インデックス を活用ください。 【一覧】日本政府 AIガイドライン 18本 ① 総務省・経済産業省 AI事業者ガイドライン 📄 AI事業者ガイドライン AIの開発・提供・利用に携わる国内外の事業者(公的機関含む)を対象に、安全安心なAI活用のための統一的な指針を示すガイドライン。「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ」「透明性」「アカウンタビリティ」の7つを共通指針として定め、AI開発者・提供者・利用者それぞれに求められる具体的な行動を整理している。法的拘束力のないソフトローとして、リスクベースアプローチに基づき、イノベーション促進とリスク低減の両立を目指している。 📄 AI事業者ガイドライン(第1.2版)別添(付属資料) 本資料は日本政府が策定した「AI事業者ガイドライン」の付属資料(別添)であり、本編の理念・指針(Why・What)を受け、AI事業者が実践すべき具体的な方法(How)を解説したリファレンス集です。AI開発者・提供者・利用者の三者それぞれに向けた実践的な解説と事例が体系的に整理されており、AIガバナンスの構築手順や具体的な取組例が豊富に掲載されています。リスクベースアプローチの考え方を基本に、AIの便益を最大化しつつリスクを管理するための実践知をまとめた実務必携の資料です。 📄 別添9. 海外ガイドライン等の参照先(AI事業者ガイドライン 第1.2版) AI事業者ガイドライン(第1.2版)が参照している主要な海外ガイドライン・フレームワーク10件をまとめた対照表です。国内ガイド...

AIガイドライン 18本 構造化インデックス

🇯🇵 日本政府 AIガイドライン 18本 構造化インデックス 各省庁が発行するAI指針を「CATEGORY A〜D」の4軸で分類。あなたの立場(開発者・利用者・行政・教育)から必要なガイドラインへ最短でアクセスできます。 【一覧表からアクセスできる ガイドライン 18本 INDEX もご活用ください。 発行元:総務省・経産省・文科省・厚労省・農水省・文化庁・デジタル庁・個人情報保護委員会・金融庁・内閣府・こども家庭庁 | 最終更新:2026年5月版を反映| NoMan Logic による構造化 — AIによる自動抽出を考慮して構造化されています CATEGORY A AI活用の基礎・汎用ルール すべてのAI利用者・事業者がまず参照すべき「地図」となるガイドラインです。 ① AI事業者ガイドライン(第1.2版) 総務省・経済産業省|2026年3月31日 AIの開発・提供・利用に携わるすべての事業者向け最上位指針。「人間中心」「安全性」「公平性」「プライバシー」「セキュリティ」「透明性」「アカウンタビリティ」の7共通指針を定め、リスクベースアプローチでイノベーション促進とリスク低減の両立を図る。 最重要 開発者 提供者 利用者 ② 生成AIはじめの一歩 〜生成AIの入門的な使い方と注意点〜 総務省 IT専門知識がない一般の方向けの入門教材。情報の正確性・情報流出・著作権侵害・モラルの4注意点を網羅。各章に理解度チェック問題付き。 入門 一般利用者 ⑦ コンテンツ制作のための生成AI利活用ガイドブック 経済産業省 ゲーム・アニメ・広告産業の実際の利活用ケースを紹介しつつ、著作権・意匠権・商標権・肖像権等の知財保護の観点から各活用シーンの留意点を解説。 クリエイター コンテンツ 知財 ⑪ 生成AIサービスの利用に関する注意喚起等について 個人情報保護委員会|2023年6月 生成AIサービス(ChatGPT等)普及を受けた個人情報保護の注意喚起。個人情報取扱事業者・行政機関・一般利用者の3区分で遵守事項を整理。 プライバシー 必読 CATEGORY B 公的機関・教育現場の実装ルール 行政や教育機関など、公共性の高い場所での導入・調達基準です。 ③ 自治体におけるAI活用・導入ガイドブック(導入手順編・第4版) 総務省 地方公共団体向けの実践ガイドブック。先行自治体によ...

⑯ 医療デジタルデータのAI研究開発等への利活用に係るガイドライン

⑯ 医療デジタルデータのAI研究開発等への利活用に係るガイドライン 項目 内容 タイトル 医療デジタルデータのAI研究開発等への利活用に係るガイドライン 発行元 デジタルデータのAI研究開発等への利活用に係るガイドライン作成班(厚生労働科学研究費補助金・政策科学総合研究の一環) 発行日 令和6年3月31日(2024年3月31日) バージョン 初版 対象者 医療機関等の医療従事者、学術研究機関等の研究者、民間企業等の開発担当者(主に診断用医療AIソフトウェアの共同開発に携わる関係者) 総ページ数 61ページ リンクURL https://www.mhlw.go.jp/content/001310044.pdf 内容の詳細な要約 第1章:はじめに AI技術の発展により、病院に蓄積された大量の医療情報を活用した研究開発競争が世界的に激化している。一方、医療情報は要配慮個人情報に該当し、原則として本人の同意なく利活用できない。過去患者から個別に同意を取得することは現実的に困難なため、仮名加工情報の枠組みを活用した解決策の整備が求められていた。本ガイドラインは令和4〜5年度の厚労科研の一環として策定された。 第2章:医療情報の利活用と法的根拠 医療情報の利用目的を「診療目的」「学術研究目的」「製品開発目的」の3類型に整理。個人情報保護法上の重要な規律として以下の3つを解説している。 利用目的による制限 (第18条):目的外利用の禁止と例外事由 要配慮個人情報の取得の制限 (第20条第2項):原則同意必要、学術・公衆衛生例外あり 第三者提供の制限 (第27条第1項):原則同意必要、学術・公衆衛生例外あり 「学術研究例外」は、学術研究機関等(主体要件)が学術研究目的(目的要件)で取り扱う場合に適用され、民間企業等と共同研究を行う場合も包含される。一方「製品開発のみ」の目的には学術研究例外は適用されない。「公衆衛生例外」は同意取得が困難な場合に限り適用可能。委託・共同利用を根拠とした製品開発目的での民間企業への提供は困難なケースが多い。 第3章:仮名加工情報とその共同利用 仮名加工情報は、氏名等を削除することで他の情報と照合しない限り個人を特定できなくした情報で、利用目的の変...

アーカイブ

自己紹介

ノーマン・AI研究所
私はこれまで、IT・デザイン・セキュリティという3つの視点から、国家資格の取得を通じて技術や安全のあり方を学んできました。ウェブデザイン技能検定 2級(国家資格)、情報セキュリティマネジメント試験(国家資格)これらの学びは、複雑なAIの世界を紐解くための私の「土台」となっています。このブログでは、まずは無料で体験してみる、コストをかけずに、今すぐ日常を少し便利にするためのヒントを共有します。総務省や経済産業省などが公開している「無料の公式情報」をベースに、安心・安全な活用方法を分かりやすく噛み砕いて解説します。最新のテクノロジーを、背伸びせず、正しく、そして楽しく。皆さんがAIと心地よく付き合っていくための、小さなガイドブックのような場所を目指しています。
詳細プロフィールを表示