論文の概要: The Responsibility Vacuum: Organizational Failure in Scaled Agent Systems
- arxiv url: http://arxiv.org/abs/2601.15059v1
- Date: Wed, 21 Jan 2026 15:05:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.408491
- Title: The Responsibility Vacuum: Organizational Failure in Scaled Agent Systems
- Title(参考訳): 責任真空--大規模エージェントシステムにおける組織的失敗-
- Authors: Oleg Romanchuk, Roman Bondar,
- Abstract要約: 現代のCI/CDパイプラインは、責任帰属の構造的失敗を示す。
我々は、この条件を責任掃除機として定義する:決定が起こる状態だが、権限と検証能力が一致しないため、責任は帰属できない。
私たちは、組織が決定境界を明示的に再設計したり、個々の決定からバッチやシステムレベルのオーナシップに再割り当てしない限り、大規模なエージェントデプロイメントでは、責任掃除は目に見えないが永続的な障害モードのままである、と結論付けています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern CI/CD pipelines integrating agent-generated code exhibit a structural failure in responsibility attribution. Decisions are executed through formally correct approval processes, yet no entity possesses both the authority to approve those decisions and the epistemic capacity to meaningfully understand their basis. We define this condition as responsibility vacuum: a state in which decisions occur, but responsibility cannot be attributed because authority and verification capacity do not coincide. We show that this is not a process deviation or technical defect, but a structural property of deployments where decision generation throughput exceeds bounded human verification capacity. We identify a scaling limit under standard deployment assumptions, including parallel agent generation, CI-based validation, and individualized human approval gates. Beyond a throughput threshold, verification ceases to function as a decision criterion and is replaced by ritualized approval based on proxy signals. Personalized responsibility becomes structurally unattainable in this regime. We further characterize a CI amplification dynamic, whereby increasing automated validation coverage raises proxy signal density without restoring human capacity. Under fixed time and attention constraints, this accelerates cognitive offloading in the broad sense and widens the gap between formal approval and epistemic understanding. Additional automation therefore amplifies, rather than mitigates, the responsibility vacuum. We conclude that unless organizations explicitly redesign decision boundaries or reassign responsibility away from individual decisions toward batch- or system-level ownership, responsibility vacuum remains an invisible but persistent failure mode in scaled agent deployments.
- Abstract(参考訳): エージェント生成コードを統合する現代的なCI/CDパイプラインは、責任帰属の構造的障害を示す。
決定は、正式に正しい承認プロセスを通じて実行されるが、その決定を承認する権限と、その根拠を有意義に理解する認識能力の両方を有する組織は存在しない。
我々は、この条件を責任掃除機として定義する:決定が起こる状態だが、権限と検証能力が一致しないため、責任は帰属できない。
これはプロセスの逸脱や技術的欠陥ではなく、意思決定のスループットが人間による検証能力を超えたデプロイメントの構造的特性であることを示す。
並列エージェント生成やCIベースの検証,個人の承認ゲートなど,標準的なデプロイメント仮定の下でのスケーリング制限を特定します。
スループットのしきい値を超えて、検証は決定基準として機能しなくなり、プロキシ信号に基づいた儀式化された承認に置き換えられる。
パーソナライズされた責任は、この体制において構造的に不確実になる。
さらに、CI増幅のダイナミクスを特徴付け、自動検証のカバレッジを増大させることで、人間の能力を取り戻すことなく、プロキシ信号の密度を高める。
一定の時間と注意の制約の下で、これは広義の認知的オフロードを加速し、正式な承認と認識のギャップを広げる。
したがって、追加の自動化は、軽減ではなく、責任の掃除を増幅する。
私たちは、組織が決定境界を明示的に再設計したり、個々の決定からバッチやシステムレベルのオーナシップに再割り当てしない限り、大規模なエージェントデプロイメントでは、責任掃除は目に見えないが永続的な障害モードのままである、と結論付けています。
関連論文リスト
- Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI [0.0]
責任を負うAIに対して,Brouwerにインスパイアされたアサービビリティ制約を提案する。
ハイテイクドメインでは、公に検査可能でコンテスト可能な権利証明書を提供する場合に限り、システムはクレームを主張または否定することができる。
論文 参考訳(メタデータ) (2026-03-04T12:14:21Z) - Towards Selection as Power: Bounding Decision Authority in Autonomous Agents [0.0]
我々は、認知、選択、行動を独立したドメインに分離し、自律性を主権のベクトルとしてモデル化するガバナンスアーキテクチャを提案する。
変動操作,しきい値ゲーム,フレーミングスキュー,順序付け効果,エントロピー探索を対象とし,複数の規制された金融シナリオを対象としたシステムの評価を行った。
その結果、機械的選択ガバナンスは実装可能であり、監査可能であり、推論能力を維持しながら決定論的結果の獲得を防止することが示されている。
論文 参考訳(メタデータ) (2026-02-16T10:10:47Z) - Agentic AI for Cybersecurity: A Meta-Cognitive Architecture for Governable Autonomy [0.0]
本稿では,サイバーセキュリティのオーケストレーションはエージェント型マルチエージェント認知システムとして再認識されるべきである,と論じる。
本稿では,特定・仮説形成・文脈解釈・説明・ガバナンスに責任を負う異種AIエージェントを,メタ認知判断機能を通じて協調する概念的枠組みを提案する。
我々の貢献は、メタ認知判断を第一級システム機能として組み込むことによって、この認知構造をアーキテクチャ的に明確化し、統制可能にすることである。
論文 参考訳(メタデータ) (2026-02-12T12:52:49Z) - Position: Human-Centric AI Requires a Minimum Viable Level of Human Understanding [26.14684888478043]
本稿では、透明性、ユーザコントロール、リテラシー、ガバナンスに対する一般的なアプローチは、人間が持続的なAIデリゲートの下で監視し続けなければならないという基本的な理解を定義していない、と論じる。
これを形式化するために、認知統合閾値(CIT)を、AI支援下での監視、自律性、説明責任な参加を維持するために必要な最小限の理解として定義する。
論文 参考訳(メタデータ) (2026-01-31T18:37:33Z) - Agentic Uncertainty Quantification [76.94013626702183]
本稿では,言語化された不確実性をアクティブな双方向制御信号に変換する統合されたデュアルプロセスエージェントUQ(AUQ)フレームワークを提案する。
システム1(Uncertainty-Aware Memory, UAM)とシステム2(Uncertainty-Aware Reflection, UAR)は、これらの説明を合理的な手段として利用し、必要な時にのみターゲットの推論時間解決をトリガーする。
論文 参考訳(メタデータ) (2026-01-22T07:16:26Z) - Logic-Driven Semantic Communication for Resilient Multi-Agent Systems [26.964933264412412]
6Gネットワークは、大規模な分散マルチエージェントシステムにおいて、自律性とインテリジェンスを加速している。
本稿では2つの相補的な次元に根ざしたMASレジリエンスの形式的定義を提案する。
我々はエージェントアーキテクチャを設計し、エピステミックとアクションレジリエンスの両方を達成するために分散アルゴリズムを開発する。
論文 参考訳(メタデータ) (2026-01-11T00:54:09Z) - Assured Autonomy: How Operations Research Powers and Orchestrates Generative AI Systems [18.881800772626427]
生成モデルは、実現可能性、分散シフトに対する堅牢性、ストレステストを提供するメカニズムと組み合わせない限り、運用領域で脆弱である可能性がある、と我々は主張する。
我々は,運用研究に根ざした自律性確保のための概念的枠組みを開発する。
これらの要素は、安全クリティカルで信頼性に敏感な運用領域における自律性を保証するための研究アジェンダを定義する。
論文 参考訳(メタデータ) (2025-12-30T04:24:06Z) - Towards Responsible and Explainable AI Agents with Consensus-Driven Reasoning [4.226647687395254]
本稿では,多モデルコンセンサスと推論層ガバナンスに基づく実運用レベルのエージェントのためのResponsible(RAI)およびExplainable(XAI)AIエージェントアーキテクチャを提案する。
提案した設計では、異種LLMとVLMエージェントのコンソーシアムが独立して、共有入力コンテキストから候補出力を生成する。
専用の推論エージェントは、これらのアウトプットをまたいで構造化された統合を行い、安全と政策の制約を強制し、幻覚と偏見を緩和し、監査可能な証拠に基づく決定を生成する。
論文 参考訳(メタデータ) (2025-12-25T14:49:25Z) - The Principle of Proportional Duty: A Knowledge-Duty Framework for Ethical Equilibrium in Human and Artificial Systems [0.0]
本稿では,倫理的責任がエージェントのてんかん状態とどのようにスケールするかをモデル化する新しい枠組みであるProportional Duty(PPD)について紹介する。
不確実性の増加に伴い、Action Duty(決定的に行動する義務)は、補修デューティ(不確実性を確認し、調査し、解決する活動的義務)に比例的に変換される。
本稿では,臨床倫理,受取権法,経済ガバナンス,人工知能の4分野にまたがる枠組みを適用し,学際的妥当性を実証する。
論文 参考訳(メタデータ) (2025-12-07T02:37:07Z) - Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - ATA: A Neuro-Symbolic Approach to Implement Autonomous and Trustworthy Agents [0.9740025522928777]
大きな言語モデル(LLM)は印象的な機能を示していますが、高レベルのドメインへのデプロイメントは、信頼性に固有の制限によって妨げられています。
我々は、自律的信頼できるエージェント(ATA)と呼ばれる一般的なニューロシンボリックアプローチを導入する。
論文 参考訳(メタデータ) (2025-10-18T07:35:54Z) - DecisionFlow: Advancing Large Language Model as Principled Decision Maker [49.088778182807395]
DecisionFlowは、モデルにアクション、属性、制約の構造化された表現を推論するように誘導する、新しい決定モデリングフレームワークである。
プロンプトから直接回答を予測するのではなく、DecisionFlowは意味論的に根拠のある決定空間を構築し、潜在ユーティリティ関数を推論する。
実験の結果,DecisionFlowの精度は,強いプロンプトベースラインよりも最大30%向上した。
論文 参考訳(メタデータ) (2025-05-27T16:23:53Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。