論文の概要: The Responsibility Vacuum: Organizational Failure in Scaled Agent Systems
- arxiv url: http://arxiv.org/abs/2601.15059v1
- Date: Wed, 21 Jan 2026 15:05:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.408491
- Title: The Responsibility Vacuum: Organizational Failure in Scaled Agent Systems
- Title(参考訳): 責任真空--大規模エージェントシステムにおける組織的失敗-
- Authors: Oleg Romanchuk, Roman Bondar,
- Abstract要約: 現代のCI/CDパイプラインは、責任帰属の構造的失敗を示す。
我々は、この条件を責任掃除機として定義する:決定が起こる状態だが、権限と検証能力が一致しないため、責任は帰属できない。
私たちは、組織が決定境界を明示的に再設計したり、個々の決定からバッチやシステムレベルのオーナシップに再割り当てしない限り、大規模なエージェントデプロイメントでは、責任掃除は目に見えないが永続的な障害モードのままである、と結論付けています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern CI/CD pipelines integrating agent-generated code exhibit a structural failure in responsibility attribution. Decisions are executed through formally correct approval processes, yet no entity possesses both the authority to approve those decisions and the epistemic capacity to meaningfully understand their basis. We define this condition as responsibility vacuum: a state in which decisions occur, but responsibility cannot be attributed because authority and verification capacity do not coincide. We show that this is not a process deviation or technical defect, but a structural property of deployments where decision generation throughput exceeds bounded human verification capacity. We identify a scaling limit under standard deployment assumptions, including parallel agent generation, CI-based validation, and individualized human approval gates. Beyond a throughput threshold, verification ceases to function as a decision criterion and is replaced by ritualized approval based on proxy signals. Personalized responsibility becomes structurally unattainable in this regime. We further characterize a CI amplification dynamic, whereby increasing automated validation coverage raises proxy signal density without restoring human capacity. Under fixed time and attention constraints, this accelerates cognitive offloading in the broad sense and widens the gap between formal approval and epistemic understanding. Additional automation therefore amplifies, rather than mitigates, the responsibility vacuum. We conclude that unless organizations explicitly redesign decision boundaries or reassign responsibility away from individual decisions toward batch- or system-level ownership, responsibility vacuum remains an invisible but persistent failure mode in scaled agent deployments.
- Abstract(参考訳): エージェント生成コードを統合する現代的なCI/CDパイプラインは、責任帰属の構造的障害を示す。
決定は、正式に正しい承認プロセスを通じて実行されるが、その決定を承認する権限と、その根拠を有意義に理解する認識能力の両方を有する組織は存在しない。
我々は、この条件を責任掃除機として定義する:決定が起こる状態だが、権限と検証能力が一致しないため、責任は帰属できない。
これはプロセスの逸脱や技術的欠陥ではなく、意思決定のスループットが人間による検証能力を超えたデプロイメントの構造的特性であることを示す。
並列エージェント生成やCIベースの検証,個人の承認ゲートなど,標準的なデプロイメント仮定の下でのスケーリング制限を特定します。
スループットのしきい値を超えて、検証は決定基準として機能しなくなり、プロキシ信号に基づいた儀式化された承認に置き換えられる。
パーソナライズされた責任は、この体制において構造的に不確実になる。
さらに、CI増幅のダイナミクスを特徴付け、自動検証のカバレッジを増大させることで、人間の能力を取り戻すことなく、プロキシ信号の密度を高める。
一定の時間と注意の制約の下で、これは広義の認知的オフロードを加速し、正式な承認と認識のギャップを広げる。
したがって、追加の自動化は、軽減ではなく、責任の掃除を増幅する。
私たちは、組織が決定境界を明示的に再設計したり、個々の決定からバッチやシステムレベルのオーナシップに再割り当てしない限り、大規模なエージェントデプロイメントでは、責任掃除は目に見えないが永続的な障害モードのままである、と結論付けています。
関連論文リスト
- Logic-Driven Semantic Communication for Resilient Multi-Agent Systems [26.964933264412412]
6Gネットワークは、大規模な分散マルチエージェントシステムにおいて、自律性とインテリジェンスを加速している。
本稿では2つの相補的な次元に根ざしたMASレジリエンスの形式的定義を提案する。
我々はエージェントアーキテクチャを設計し、エピステミックとアクションレジリエンスの両方を達成するために分散アルゴリズムを開発する。
論文 参考訳(メタデータ) (2026-01-11T00:54:09Z) - Assured Autonomy: How Operations Research Powers and Orchestrates Generative AI Systems [18.881800772626427]
生成モデルは、実現可能性、分散シフトに対する堅牢性、ストレステストを提供するメカニズムと組み合わせない限り、運用領域で脆弱である可能性がある、と我々は主張する。
我々は,運用研究に根ざした自律性確保のための概念的枠組みを開発する。
これらの要素は、安全クリティカルで信頼性に敏感な運用領域における自律性を保証するための研究アジェンダを定義する。
論文 参考訳(メタデータ) (2025-12-30T04:24:06Z) - Towards Responsible and Explainable AI Agents with Consensus-Driven Reasoning [4.226647687395254]
本稿では,多モデルコンセンサスと推論層ガバナンスに基づく実運用レベルのエージェントのためのResponsible(RAI)およびExplainable(XAI)AIエージェントアーキテクチャを提案する。
提案した設計では、異種LLMとVLMエージェントのコンソーシアムが独立して、共有入力コンテキストから候補出力を生成する。
専用の推論エージェントは、これらのアウトプットをまたいで構造化された統合を行い、安全と政策の制約を強制し、幻覚と偏見を緩和し、監査可能な証拠に基づく決定を生成する。
論文 参考訳(メタデータ) (2025-12-25T14:49:25Z) - The Principle of Proportional Duty: A Knowledge-Duty Framework for Ethical Equilibrium in Human and Artificial Systems [0.0]
本稿では,倫理的責任がエージェントのてんかん状態とどのようにスケールするかをモデル化する新しい枠組みであるProportional Duty(PPD)について紹介する。
不確実性の増加に伴い、Action Duty(決定的に行動する義務)は、補修デューティ(不確実性を確認し、調査し、解決する活動的義務)に比例的に変換される。
本稿では,臨床倫理,受取権法,経済ガバナンス,人工知能の4分野にまたがる枠組みを適用し,学際的妥当性を実証する。
論文 参考訳(メタデータ) (2025-12-07T02:37:07Z) - Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - ATA: A Neuro-Symbolic Approach to Implement Autonomous and Trustworthy Agents [0.9740025522928777]
大きな言語モデル(LLM)は印象的な機能を示していますが、高レベルのドメインへのデプロイメントは、信頼性に固有の制限によって妨げられています。
我々は、自律的信頼できるエージェント(ATA)と呼ばれる一般的なニューロシンボリックアプローチを導入する。
論文 参考訳(メタデータ) (2025-10-18T07:35:54Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。