事務局メンバーによる、OpenID関連のあれやこれや
OpenID ファウンデーション(OIDF)は、AIエージェントシステムをどう保護するかについての米国政府による意見募集に対して、回答を提出しました。
2026年3月、OIDFのAI Identity Management (AIIM) コミュニティグループ内の脅威モデリングサブグループは、AIエージェントシステムのセキュリティに関するNISTの情報提供要請(NIST-2025-0035)に対して回答を提出しました。この情報提供要請は、業界、学界、セキュリティ研究者に対し、AIエージェントセキュリティに関する将来の米国政府ガイダンスの策定に協力するよう求めるものでした。
これは、AIIMコミュニティグループが2025年10月にAIとデジタルアイデンティティが交差する点における中核的な課題を特定するホワイトペーパーを発表して以来取り組んできた作業を基盤としています。NISTへの提出文書は、この分析をさらに進め、米国政府のガイダンスに対する具体的な提言へと発展しています。
AIエージェントとは、ユーザーや組織に代わって、ウェブの閲覧、取引の実行、他のサービスの呼び出しなど、自律的に行動できるソフトウェアシステムのことです。その利用が加速するにつれて、それらがどのように自身を識別するか、何を行うことが許可されているか、何か問題が発生した場合に誰が責任を負うのかといったセキュリティ上の問題も増大しています。
AIIM脅威モデリングサブグループの議長であり、Semperisのプロダクトマネジメントディレクターを務めるSarah Cecchetti氏は次のように述べています。「OIDFのAIIMコミュニティグループの作業は極めて重要です。この技術はまだ初期段階であるため、実装は多様です。脅威や隠れた複雑さがどこにあるのかを見極めるには、専門家が集結する必要があります。規制当局がセキュリティガイダンスを提供しながらイノベーションを促進するという微妙なバランスを取るのに役立つ、このNISTへのフィードバックの一員となれたことを大変誇りに思います。」
OIDFの提出文書は、喫緊のAIエージェントのセキュリティリスクは技術的な欠陥ではなく、信頼の失敗であると主張しています。誰がこのエージェントの行動を認可したのか? 誰のために行動しているのか? それは検証可能か? 現在、ほとんどの導入事例は、手動で管理されるアクセスリスト、署名されていない認証情報、明確な責任の連鎖がないといった、その場しのぎの回避策に依存しています。これらのアプローチは小規模な使用では機能するかもしれませんが、AIエージェントが複数の組織やシステムを横断して動作するにつれて破綻します。
提出文書は、技術的制御の下に「信頼のファブリック(枠組み)」を構築することを求めています。これは、資格情報を自動的に検証し、あらゆるエージェントが許可されている行動を制約し、行動を責任ある当事者まで遡って追跡できる基盤を意味します。これがなければ、システムは「すべてを許可する」というデフォルト状態に追い込まれ、セキュリティ目標と規制要件の両方を損なうことになります。
OIDFは、より良いセキュリティガイダンスが面倒で硬直した手続きを必要であることを避けるべきであることを明確にしています。セキュリティ要件があまりにも負担になると、チームは物事を進めるために手を抜くことになります。規範的な義務を課すのではなく、提出した文書はNISTに対し、トランザクショントークン、ワークロードアイデンティティフェデレーション、AIツールプロトコル向け認証拡張など、新興の実用的な標準に向けて組織を導くガイダンスを求めています。
Adiucoの独立アイデンティティアーキテクト、Chris Phillips氏は次のように述べています。「OIDFのAIIMコミュニティグループによるNISTへの回答に参加することで、多様なアイデアと新たに浮上する課題がより明確な焦点に集約されました。グループの多様性と協力は、『一人の力よりも全員の知恵』という考えを反映しており、信頼できるコンピューティングがAIとソフトウェアサプライチェーンとともにどのように進化するかを形作るために、反応する立場から形成する立場へと移行するためには、まさにこれが必要なのです。」
「作業は現在も進行中であり、他の方々にもこの議論に参加し、数十年に一度のアイデンティティにおける大きな変革を形作る手助けがどのようなものかを直接体験していただきたいと考えています。」
回答全文はこちらからお読みいただけます。
この作業への参加方法の詳細については、OIDFのAI Identity Management (AIIM) コミュニティグループをご覧ください。