論文の概要: Artificial Organisations
- arxiv url: http://arxiv.org/abs/2602.13275v1
- Date: Thu, 05 Feb 2026 13:26:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.608229
- Title: Artificial Organisations
- Title(参考訳): 人工組織
- Authors: William Waites,
- Abstract要約: マルチエージェントAIシステムは、アーキテクチャ設計を通じて信頼性の高い結果を達成するための制度モデルに従うべきである。
文書合成のためのマルチエージェントシステムであるPerseverance Composition Engineを用いて,本手法を実証する。
474の構成課題(起草、検証、評価の離散サイクル)からの観察は、制度的仮説と整合したパターンを示す。
- 参考スコア(独自算出の注目度): 0.05343599014839717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Alignment research focuses on making individual AI systems reliable. Human institutions achieve reliable collective behaviour differently: they mitigate the risk posed by misaligned individuals through organisational structure. Multi-agent AI systems should follow this institutional model using compartmentalisation and adversarial review to achieve reliable outcomes through architectural design rather than assuming individual alignment. We demonstrate this approach through the Perseverance Composition Engine, a multi-agent system for document composition. The Composer drafts text, the Corroborator verifies factual substantiation with full source access, and the Critic evaluates argumentative quality without access to sources: information asymmetry enforced by system architecture. This creates layered verification: the Corroborator detects unsupported claims, whilst the Critic independently assesses coherence and completeness. Observations from 474 composition tasks (discrete cycles of drafting, verification, and evaluation) exhibit patterns consistent with the institutional hypothesis. When assigned impossible tasks requiring fabricated content, this iteration enabled progression from attempted fabrication toward honest refusal with alternative proposals--behaviour neither instructed nor individually incentivised. These findings motivate controlled investigation of whether architectural enforcement produces reliable outcomes from unreliable components. This positions organisational theory as a productive framework for multi-agent AI safety. By implementing verification and evaluation as structural properties enforced through information compartmentalisation, institutional design offers a route to reliable collective behaviour from unreliable individual components.
- Abstract(参考訳): アライメント研究は、個々のAIシステムを信頼できるものにすることに焦点を当てている。
人間の組織は、組織構造を通じて、不整合した個人によって引き起こされるリスクを軽減します。
多エージェントAIシステムは、個別のアライメントを仮定するのではなく、アーキテクチャ設計を通じて信頼性の高い結果を達成するために、区分化と敵レビューを用いて、この制度モデルに従うべきである。
文書合成のためのマルチエージェントシステムであるPerseverance Composition Engineを用いて,本手法を実証する。
Composerはテキストをドラフトし、Corroboratorは実際のサブストラテジを完全なソースアクセスで検証し、Cryticはソースにアクセスせずに議論的な品質を評価する: システムアーキテクチャによって強制される情報非対称性。
Corroboratorはサポート対象のクレームを検出し、Criticは独立してコヒーレンスと完全性を評価します。
474の構成課題(起草、検証、評価の離散サイクル)からの観察は、制度的仮説と整合したパターンを示す。
製作されたコンテンツを必要とする不可能なタスクを割り当てると、このイテレーションは、他の提案による正直な拒絶への試みから、指示も個人的インセンティブも受けなかった。
これらの知見は, 信頼性の低いコンポーネントから, 信頼性の高い結果が得られるかどうかを, 制御した調査を動機づけるものである。
このことは、組織理論をマルチエージェントAI安全のための生産的なフレームワークとして位置づけている。
情報複合化によって実施される構造的特性として検証と評価を行うことにより、組織設計は信頼できない個々のコンポーネントから信頼できる集団行動への経路を提供する。
関連論文リスト
- Agentic AI for Cybersecurity: A Meta-Cognitive Architecture for Governable Autonomy [0.0]
本稿では,サイバーセキュリティのオーケストレーションはエージェント型マルチエージェント認知システムとして再認識されるべきである,と論じる。
本稿では,特定・仮説形成・文脈解釈・説明・ガバナンスに責任を負う異種AIエージェントを,メタ認知判断機能を通じて協調する概念的枠組みを提案する。
我々の貢献は、メタ認知判断を第一級システム機能として組み込むことによって、この認知構造をアーキテクチャ的に明確化し、統制可能にすることである。
論文 参考訳(メタデータ) (2026-02-12T12:52:49Z) - Mirror: A Multi-Agent System for AI-Assisted Ethics Review [104.3684024153469]
MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
論文 参考訳(メタデータ) (2026-02-09T03:38:55Z) - DeepSynth-Eval: Objectively Evaluating Information Consolidation in Deep Survey Writing [53.85037373860246]
本稿では,情報統合能力を客観的に評価するためのベンチマークであるDeep Synth-Evalを紹介する。
一般チェックリスト(実例)と制約チェックリスト(構造体)を用いたきめ細かい評価プロトコルを提案する。
その結果,エージェント型プラン・アンド・ライトは単ターン生成よりも大幅に優れていた。
論文 参考訳(メタデータ) (2026-01-07T03:07:52Z) - Making LLMs Reliable When It Matters Most: A Five-Layer Architecture for High-Stakes Decisions [51.56484100374058]
現在の大規模言語モデル(LLM)は、実行前にアウトプットをチェックできるが、不確実な結果を伴う高い戦略決定には信頼性が低い検証可能な領域で優れている。
このギャップは、人間と人工知能(AI)システムの相互認知バイアスによって引き起こされ、そのセクターにおける評価と投資の持続可能性の保証を脅かす。
本報告では、7つのフロンティアグレードLDMと3つの市場向けベンチャーヴィグネットの時間的圧力下での系統的質的評価から生まれた枠組みについて述べる。
論文 参考訳(メタデータ) (2025-11-10T22:24:21Z) - LegalWiz: A Multi-Agent Generation Framework for Contradiction Detection in Legal Documents [0.10260880679794955]
本稿では,法的領域に対するマルチエージェントの矛盾対応ベンチマークフレームワークを提案する。
合成法スタイルの文書を生成し、6種類の構造的矛盾を注入し、自己と対の矛盾をモデル化する。
このベンチマークは、法的RAGパイプラインにおける矛盾認識評価のための最初の構造化されたリソースの1つを提供する。
論文 参考訳(メタデータ) (2025-10-03T18:24:27Z) - Zero-shot reasoning for simulating scholarly peer-review [0.0]
本稿では、AI生成ピアレビューレポートを評価するための、最初の安定的でエビデンスに基づく標準を提供する決定論的シミュレーションフレームワークについて検討する。
第一に、このシステムは校正された編集判断をシミュレートすることができ、「改訂」決定が一貫して多数決結果を形成する。
第二に、手続きの整合性を揺るぎないまま維持し、安定した29%の証明の遵守率を強制する。
論文 参考訳(メタデータ) (2025-10-02T13:59:14Z) - Demystifying deep search: a holistic evaluation with hint-free multi-hop questions and factorised metrics [89.1999907891494]
We present WebDetective, a benchmark of hint-free multi-hop questions with a control Wikipedia sandbox。
25の最先端モデルに対する我々の評価は、すべてのアーキテクチャにまたがる体系的な弱点を明らかにしている。
私たちはエージェントワークフローであるEvidenceLoopを開発し、ベンチマークが特定する課題を明示的にターゲットしています。
論文 参考訳(メタデータ) (2025-10-01T07:59:03Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Closing the AI Accountability Gap: Defining an End-to-End Framework for
Internal Algorithmic Auditing [8.155332346712424]
本稿では,人工知能システム開発をエンドツーエンドでサポートするアルゴリズム監査フレームワークを提案する。
提案する監査フレームワークは,大規模人工知能システムの開発と展開において,説明責任のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2020-01-03T20:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。