上司に説明できる生成AIガイドライン - NIST AI RMF準拠Check List
NIST AI RMF準拠の生成AIガバナンスチェックリストを公開しました。 ChatGPT・Claude・Gemini等のSaaS型生成AIを業務利用する際の ガイドライン策定に使える、全7章・120項目の実践的な内容です。 非専門家でも使いやすく、小規模な組織でも今すぐ始められます。 この記事は Zenn に掲載したオリジナル記事 の転載です。 生成AIも世の中に浸透してきたので、普通の企業や団体でも利用を検討しているところが増えてきたと思います。 ある日突然、上司からこう言われる可能性はありませんか? あるいはもう既に経験済みかも知れません。 「うちも生成AIを使い始めたいんだけど、まずガイドラインを作ってくれない?」 引き受けたものの、いざ着手すると途方に暮れます。 そんなあなたのために、チェックリストを作りました。 https://yostos.github.io/genai-governance-checklist/ 専門のIT部門を持たない中小規模の組織で、専門家ではない生成AIの利用ガイドラインを策定・点検する担当者を想定しています。 AIやリスク管理の専門知識がなくても、項目を順に確認できるよう、各項目に「説明」と「定義例」を付けています。 ChatGPT・Claude・Gemini等のチャット型SaaS生成AIサービスを業務で利用する場面が対象です。IT部門を持たない組織では、おそらくこれらのチャット型の生成AIから始めるケースが多いと考えられるためです。 以下は対象外です。 ガイドラインを作ったら、次に待っているのは上司や経営層からの質問です。 「で、このガイドラインが正しいという根拠は何?」 この質問に答えられるよう、本チェックリストはNIST AI RMFを軸に構成しています。 NIST(米国国立標準技術研究所)は、米国商務省傘下の連邦機関です。 NISTが策定する標準・ガイドラインは、米国政府機関だけでなく世界中の組織で採用されています。 サイバーセキュリティ分野ではNIST Cybersecurity Framework(CSF)が事実上の世界標準となっており、日本でも金融庁や経済産業省のガイドラインがNIST CSFを参照しています。 AI Risk Management Framework(AI RMF 1.0)は、NISTが2023年1月に公開したAIリスク管理の国際的な基本枠組みです。 さらに2024年7月には、生成AI固有のリスクを扱う拡張文書NIST AI 600-1(Generative AI Profile)が公開されました。 日本にも経済産業省やIPAのガイドラインがありますが、これらはNIST AI RMFを参照して策定されています。 つまり、NISTを押さえておけば、日本のガイドラインの上流を押さえたことになります。上司から「根拠は?」と聞かれたら、こう答えられます。 「米国NISTのAI RMFに基づいています。日本の経産省やIPAのガイドラインも、このNIST AI RMFを参照して策定されています」 NISTを軸に、国内外の主要基準を横断的に参照しています。 https://yostos.github.io/genai-governance-checklist/ 全7章・120項目。各項目に「説明」と「定義例」が付いています。まだガイドライン策定に着手してなければ、説明を読んで、これから執筆すべき項目を検討できます。 もし策定したガイドラインがある、あるいは執筆済みである場合は、EXCELでチェックリストを用意しました。自組織のガイドラインと突き合わせて、項目の抜け漏れを確認いただけます。 Excel版をダウンロードして、対応状況を記入します。 各項目の「定義例」を参考に、自組織向けにカスタマイズしてください。 「何を書けばいいか分からない」状態から脱出できます。 各項目には準拠レベルが設定されています。限られた時間で何を優先すべきかが一目で分かります。年間予算15億円程度の非営利団体を想定し定義内容に基づいて独自にセットしたものです。業種によって事情が異なると思いますが、設定理由もドキュメントに残していますので必要応じて見直し下さい。 NIST AI RMFの4機能(GOVERN・MAP・MEASURE・MANAGE)に沿って構成しています。 MITライセンスで公開しています。商用・非商用問わず自由に利用できます。 本チェックリストはClaude Codeを全面的に活用し、コンセプト検討→計画→作成→インスペクションのプロセスで作成しました。 インスペクションにはMAGIシステム1を使用しました。3つの異なる視点を持つAIエージェントが並列でレビューし、指摘を統合することで、単一視点では見落としがちな問題を検出できました。 インスペクションログはdocsフォルダで公開しています。 現在v1.0.0-rc.1(リリース候補版)です。フィードバックを募集しています。 https://github.com/yostos/genai-governance-checklist/issues MAGIシステムは、Claude Codeプラグインとして実装した品質レビューシステムです。エヴァンゲリオンのMAGIから着想を得て、CASPER(批判的分析)・BALTHASAR(実用性評価)・MELCHIOR(創造的提案)の3エージェントが独立してレビューします。詳細は https://github.com/yostos/claude-code-plugins を参照してください。 ↩Table of Contents
「来月までにガイドラインを作って」
このチェックリストの対象
誰のためのチェックリストか
何を対象としているか
なぜこのチェックリストが「正しい」と言えるのか
NISTとは何か
NIST AI RMFとは何か
なぜNISTを軸にすべきか
ガイドライン NISTとの関係 経済産業省「AI事業者ガイドライン」 NIST AI RMFの4機能を参照 IPA「テキスト生成AI導入・運用ガイドライン」 NIST AI RMFを基本構造として採用 本チェックリストが参照している基準
略称 正式名称 NIST NIST AI Risk Management Framework (AI RMF 1.0) NIST-GAI NIST AI RMF Generative AI Profile (NIST AI 600-1) METI 経済産業省・総務省「AI事業者ガイドライン」 JDLA 日本ディープラーニング協会「生成AIの利用ガイドライン」 IPA IPA「テキスト生成AI導入・運用ガイドライン」 EU-AIA EU AI Act(EU AI規制法) AIACT-JP AI推進法(人工知能関連技術の研究開発及び活用の推進に関する法律) 今すぐ使う3ステップ
1. チェックリストを開く
2. Excel版で現状を点検する
3. 定義例を参考にガイドラインを書く
1.1.A. [Required] 生成AI利用に関する最終責任者(経営層)が
明確に定められている [NIST: GOVERN 2.3] [METI]
説明: AI関連の最終判断を下す責任者は必須。責任者が不明確だと、
インシデント発生時に判断が遅れ法的・社会的リスクを組織全体に
波及させる。
定義例: 「団体理事長をAI利用の最終責任者とし、利用方針の承認・
リスク受容の判断・重大インシデント時の意思決定を自ら行う」準拠レベルで優先度が明確
準拠レベル 意味 Required 必ず記載すべき。欠落すると法令違反や重大リスクにつながる Recommended 記載を強く推奨。除外する場合は理由を説明できること Option 記載があると望ましい。組織の規模や業種に応じて検討 チェックリストの構成
章 タイトル 項目数 概要 1 ガバナンス体制 21 責任者・ポリシー・教育など組織の管理体制 2 リスクの特定と評価 21 利用目的の明確化とリスクアセスメント 3 入力データの管理 16 入力禁止情報・個人情報・機密情報の取り扱い 4 出力の管理と利用 15 出力の検証義務・著作権・利用範囲 5 信頼性の確保 31 正確性・安全性・公平性・透明性などの品質特性 6 インシデント対応 4 報告体制と対応手順 7 ガイドラインとしての完成度 12 文書としての一般的な品質要件 リンク集
作成プロセス