論文の概要: Agentic AI Governance and Lifecycle Management in Healthcare
- arxiv url: http://arxiv.org/abs/2601.15630v1
- Date: Thu, 22 Jan 2026 04:01:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.489028
- Title: Agentic AI Governance and Lifecycle Management in Healthcare
- Title(参考訳): 医療におけるエージェントAIガバナンスとライフサイクルマネジメント
- Authors: Chandra Prakash, Mary Lind, Avneesh Sisodia,
- Abstract要約: 医療機関は、臨床ドキュメントのサポートや早期監視など、エージェントAIをルーチンに組み込んでいる。
医療システムはエージェントをスプロールし、重複したエージェント、不明確な説明責任、一貫性のないコントロール、そして元のユースケースを超えて継続するツールパーミッションを引き起こす。
既存のAIガバナンスフレームワークは、ライフサイクルリスクを強調するが、エージェントフリートの日々の運用には限定的なガイダンスを提供する。
本稿では,ガバナンス標準,エージェントセキュリティ文献,医療コンプライアンス要件の迅速かつ実践的な合成を提案する。
UALMは繰り返し発生するギャップを,(1)アイデンティティとペルソナレジストリ,(2)オーケストレーションとドメイン間の仲介,(3)
- 参考スコア(独自算出の注目度): 0.6283858206409504
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Healthcare organizations are beginning to embed agentic AI into routine workflows, including clinical documentation support and early-warning monitoring. As these capabilities diffuse across departments and vendors, health systems face agent sprawl, causing duplicated agents, unclear accountability, inconsistent controls, and tool permissions that persist beyond the original use case. Existing AI governance frameworks emphasize lifecycle risk management but provide limited guidance for the day-to-day operations of agent fleets. We propose a Unified Agent Lifecycle Management (UALM) blueprint derived from a rapid, practice-oriented synthesis of governance standards, agent security literature, and healthcare compliance requirements. UALM maps recurring gaps onto five control-plane layers: (1) an identity and persona registry, (2) orchestration and cross-domain mediation, (3) PHI-bounded context and memory, (4) runtime policy enforcement with kill-switch triggers, and (5) lifecycle management and decommissioning linked to credential revocation and audit logging. A companion maturity model supports staged adoption. UALM offers healthcare CIOs, CISOs, and clinical leaders an implementable pattern for audit-ready oversight that preserves local innovation and enables safer scaling across clinical and administrative domains.
- Abstract(参考訳): 医療機関は、臨床ドキュメントのサポートや早期警戒監視など、エージェントAIを日常的なワークフローに組み込もうとしている。
これらの機能が部門やベンダーに分散するにつれて、医療システムはエージェントのスプロールに直面し、重複したエージェント、不明確な説明責任、一貫性のないコントロール、そして元のユースケースを超えて継続するツールパーミッションを引き起こします。
既存のAIガバナンスフレームワークはライフサイクルリスク管理を重視しているが、エージェントフリートの日々の運用には限定的なガイダンスを提供する。
本稿では,ガバナンス標準,エージェントセキュリティ文献,医療コンプライアンス要件の迅速かつ実践的な合成から得られた統一エージェントライフサイクル管理(UALM)の青写真を提案する。
UALMは、(1)アイデンティティとペルソナレジストリ、(2)オーケストレーションとクロスドメインの仲介、(3)PHI境界のコンテキストとメモリ、(4)キル・スウィッチトリガによる実行時ポリシーの実施、(5)認証の取り消しと監査ログに関連するライフサイクル管理と廃止の5つのコントロールプレーン層に、ギャップをマップする。
コンパニオン成熟モデルは、ステージド採用をサポートする。
UALMは、医療CIO、CISO、および臨床リーダーに、局所的なイノベーションを維持し、臨床および管理領域をまたいでより安全なスケーリングを可能にする監査対応監視のための実装可能なパターンを提供する。
関連論文リスト
- AgentGuardian: Learning Access Control Policies to Govern AI Agent Behavior [20.817336331051752]
AgentGuardianは、コンテキスト対応アクセス制御ポリシーを強制することによって、AIエージェントの操作を統制し、保護する。
正常なエージェント機能を保持しながら、悪意のある入力や誤解を招く入力を効果的に検出する。
論文 参考訳(メタデータ) (2026-01-15T14:33:36Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - VeriGuard: Enhancing LLM Agent Safety via Verified Code Generation [40.594947933580464]
医療などのセンシティブなドメインに自律的なAIエージェントを配置することは、安全性、セキュリティ、プライバシに重大なリスクをもたらす。
LLMをベースとしたエージェントに対して、正式な安全保証を提供する新しいフレームワークであるVeriGuardを紹介する。
論文 参考訳(メタデータ) (2025-10-03T04:11:43Z) - Diagnose, Localize, Align: A Full-Stack Framework for Reliable LLM Multi-Agent Systems under Instruction Conflicts [75.20929587906228]
LLM(Large Language Model)を利用したマルチエージェントシステム(MAS)は、複雑なタスクにおける協調推論、ツールの使用、役割特化調整を急速に進めている。
しかし、信頼性クリティカルなデプロイメントは、体系的な障害モード、すなわち命令の競合による階層的コンプライアンスによって妨げられている。
論文 参考訳(メタデータ) (2025-09-27T08:43:34Z) - Beyond Jailbreaking: Auditing Contextual Privacy in LLM Agents [43.303548143175256]
本研究では,リスクに対するエージェントの感受性を定量的に評価する,会話プライバシのための監査フレームワークを提案する。
CMPL(Conversational Manipulation for Privacy Leakage)フレームワークは、厳格なプライバシー命令を強制するエージェントをストレステストするために設計されている。
論文 参考訳(メタデータ) (2025-06-11T20:47:37Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - A Novel Zero-Trust Identity Framework for Agentic AI: Decentralized Authentication and Fine-Grained Access Control [7.228060525494563]
本稿では,Agentic AI IAMフレームワークの提案について述べる。
リッチで検証可能なエージェント識別子(ID)に基づく包括的フレームワークを提案する。
また、Zero-Knowledge Proofs(ZKPs)によって、プライバシ保護属性の開示と検証可能なポリシーコンプライアンスを実現する方法について検討する。
論文 参考訳(メタデータ) (2025-05-25T20:21:55Z) - Towards a HIPAA Compliant Agentic AI System in Healthcare [3.6185342807265415]
本稿では,HIPAA準拠のエージェントAIフレームワークについて紹介する。
本フレームワークは,(1)粒度管理のための属性ベースアクセス制御(ABAC),(2)パターンとBERTモデルを組み合わせたハイブリッドPHI衛生パイプライン,(3)コンプライアンス検証のための不変監査パスの3つのコアメカニズムを統合する。
論文 参考訳(メタデータ) (2025-04-24T15:38:20Z) - Agentic Business Process Management: Practitioner Perspectives on Agent Governance in Business Processes [0.7270112855088837]
生成AIの台頭に伴い、ソフトウェアエージェントへの産業的関心が高まりつつある。
本稿では,組織がAIエージェントを効果的に管理する方法を検討する。
AIエージェントの採用に責任を負う6つの重要な推奨事項を概説している。
論文 参考訳(メタデータ) (2025-03-23T20:15:24Z) - SOPBench: Evaluating Language Agents at Following Standard Operating Procedures and Constraints [59.645885492637845]
SOPBenchは、各サービス固有のSOPコードプログラムを実行可能な関数の有向グラフに変換する評価パイプラインである。
提案手法では,各サービス固有のSOPコードプログラムを実行可能関数の有向グラフに変換し,自然言語SOP記述に基づいてこれらの関数を呼び出しなければならない。
我々は18の先行モデルを評価し、上位モデルでさえタスクが困難であることを示す。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。