論文の概要: Oversight Structures for Agentic AI in Public-Sector Organizations
- arxiv url: http://arxiv.org/abs/2506.04836v1
- Date: Thu, 05 Jun 2025 09:57:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.647306
- Title: Oversight Structures for Agentic AI in Public-Sector Organizations
- Title(参考訳): 公共部門におけるエージェントAIの監視構造
- Authors: Chris Schmitz, Jonathan Rystrøm, Jan Batzner,
- Abstract要約: 責任あるエージェントのデプロイメントに不可欠な5つのガバナンスの側面を特定します。
エージェントの監視は、既存の3つのガバナンス課題の強化バージョンを提供する。
本稿では,公共セクターの制約に適合する制度構造と設計エージェントを両立させるアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper finds that the introduction of agentic AI systems intensifies existing challenges to traditional public sector oversight mechanisms -- which rely on siloed compliance units and episodic approvals rather than continuous, integrated supervision. We identify five governance dimensions essential for responsible agent deployment: cross-departmental implementation, comprehensive evaluation, enhanced security protocols, operational visibility, and systematic auditing. We evaluate the capacity of existing oversight structures to meet these challenges, via a mixed-methods approach consisting of a literature review and interviews with civil servants in AI-related roles. We find that agent oversight poses intensified versions of three existing governance challenges: continuous oversight, deeper integration of governance and operational capabilities, and interdepartmental coordination. We propose approaches that both adapt institutional structures and design agent oversight compatible with public sector constraints.
- Abstract(参考訳): 本稿では,エージェント型AIシステムの導入により,サイロ化されたコンプライアンスユニットとエピソディックな承認に頼る従来の公共セクター監視機構への既存の課題が強化されることを見出した。
我々は、責任あるエージェントの配置に不可欠な5つのガバナンスの側面を識別する: クロスディビジョンの実装、包括的な評価、セキュリティプロトコルの強化、運用の可視性、体系的な監査。
我々は,これらの課題に対応するため,文献レビューと公務員へのインタビューからなる混成手法を用いて,既存の監視構造物の能力を評価する。
エージェントの監視は、継続的監視、ガバナンスと運用機能のより深い統合、部門間調整の3つの既存のガバナンス課題の強化バージョンを提供する。
本稿では,公共セクターの制約に適合する制度構造と設計エージェントを両立させるアプローチを提案する。
関連論文リスト
- A Desideratum for Conversational Agents: Capabilities, Challenges, and Future Directions [51.96890647837277]
大規模言語モデル(LLM)は、従来の対話システムから、自律的な行動、文脈認識、ユーザとのマルチターンインタラクションが可能な高度なエージェントへと、会話AIを推進してきた。
本調査では,人間レベルの知性にアプローチするよりスケーラブルなシステムにおいて,何が達成されたのか,どのような課題が持続するのか,何を行う必要があるのか,といった,次世代の会話エージェントのデシラトゥムを提示する。
論文 参考訳(メタデータ) (2025-04-07T21:01:25Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - AgentOrca: A Dual-System Framework to Evaluate Language Agents on Operational Routine and Constraint Adherence [54.317522790545304]
本稿では,言語エージェントの動作制約やルーチンに対するコンプライアンスを評価するための,デュアルシステムフレームワークであるAgentOrcaを提案する。
本フレームワークは,エージェントの自然言語プロンプトと,それに対応する実行可能コードが,自動検証のための基礎的真理として機能することを通じて,行動制約とルーチンを符号化する。
以上の結果から,o1のような大きな推論モデルではコンプライアンスが良好であり,他のモデルではパフォーマンスが著しく低下していることが明らかとなった。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - Visibility into AI Agents [9.067567737098594]
AIエージェントに対する商業的、科学的、政府的、個人的活動の委譲の増加は、既存の社会的リスクを悪化させる可能性がある。
エージェント識別子,リアルタイム監視,アクティビティログという,AIエージェントの視認性を高めるための3つの尺度を評価した。
論文 参考訳(メタデータ) (2024-01-23T23:18:33Z) - Ask-AC: An Initiative Advisor-in-the-Loop Actor-Critic Framework [41.04606578479283]
本稿では,Ask-ACと呼ばれる新しいアドバイザリ・イン・ザ・ループアクター・クリティカル・フレームワークを提案する。
Ask-ACの中心には2つの補完的なコンポーネント、すなわちアクションリクエスタとアダプティブステートセレクタがある。
定常環境および非定常環境における実験結果から,提案手法はエージェントの学習効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2022-07-05T10:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。