論文の概要: Normative Common Ground Replication (NormCoRe): Replication-by-Translation for Studying Norms in Multi-agent AI
- arxiv url: http://arxiv.org/abs/2603.11974v1
- Date: Thu, 12 Mar 2026 14:24:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.140152
- Title: Normative Common Ground Replication (NormCoRe): Replication-by-Translation for Studying Norms in Multi-agent AI
- Title(参考訳): Normative Common Ground Replication (NormCoRe):マルチエージェントAIにおけるノルム研究のためのレプリケーション・バイ・トランスレーション
- Authors: Luca Deck, Simeon Allmendinger, Lucas Müller, Niklas Kühl,
- Abstract要約: 我々は,人体実験の設計をMAAI環境に体系的に翻訳するために,ノルマティブ・コモン・グラウンド・レプリケーション(NormCoRe)を提案する。
本稿では,AIエージェント研究における規範的判断が人事基準と異なる可能性を示し,エージェントペルソナのインスタンス化に使用される基礎モデルと言語の選択に敏感であることを示す。
- 参考スコア(独自算出の注目度): 4.033017316711126
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the late 2010s, the fashion trend NormCore framed sameness as a signal of belonging, illustrating how norms emerge through collective coordination. Today, similar forms of normative coordination can be observed in systems based on Multi-agent Artificial Intelligence (MAAI), as AI-based agents deliberate, negotiate, and converge on shared decisions in fairness-sensitive domains. Yet, existing empirical approaches often treat norms as targets for alignment or replication, implicitly assuming equivalence between human subjects and AI agents and leaving collective normative dynamics insufficiently examined. To address this gap, we propose Normative Common Ground Replication (NormCoRe), a novel methodological framework to systematically translate the design of human subject experiments into MAAI environments. Building on behavioral science, replication research, and state-of-the-art MAAI architectures, NormCoRe maps the structural layers of human subject studies onto the design of AI agent studies, enabling systematic documentation of study design and analysis of norms in MAAI. We demonstrate the utility of NormCoRe by replicating a seminal experimental study on distributive justice, in which participants negotiate fairness principles under a "veil of ignorance". We show that normative judgments in AI agent studies can differ from human baselines and are sensitive to the choice of the foundation model and the language used to instantiate agent personas. Our work provides a principled pathway for analyzing norms in MAAI and helps to guide, reflect, and document design choices whenever AI agents are used to automate or support tasks formerly carried out by humans.
- Abstract(参考訳): 2010年代後半、ファッショントレンドのNormCoreは、集団協調を通じてノルムがどのように出現するかを示す、所有のシグナルと同一視された。
今日では、AIベースのエージェントがフェアネスに敏感なドメインで共有された決定を意図し、交渉し、収束するため、同様の規範的調整がマルチエージェント人工知能(MAAI)に基づくシステムで見られる。
しかし、既存の経験的アプローチは、規範をアライメントや複製の標的として扱い、暗黙的に人間の被験者とAIエージェントの等価性を仮定し、集団的規範力学を十分に検証していない。
このギャップに対処するため,人体実験の設計をMAAI環境に体系的に翻訳する手法として,Normative Common Ground Replication (NormCoRe)を提案する。
NormCoReは行動科学、複製研究、最先端のMAAIアーキテクチャに基づいており、人体研究の構造層をAIエージェント研究の設計にマッピングし、MAAIの標準の設計と分析に関する体系的なドキュメントを可能にする。
参加者が「無知のベール」の下で公正原則を交渉する、分配的正義に関する基礎実験を再現することで、NormCoReの有用性を実証する。
本稿では,AIエージェント研究における規範的判断が人事基準と異なる可能性を示し,エージェントペルソナのインスタンス化に使用される基礎モデルと言語の選択に敏感であることを示す。
我々の研究は、MAAIの規範を分析するための原則化された経路を提供し、AIエージェントが以前人間が行っていたタスクを自動化または支援するために使用されるとき、設計選択をガイドし、反映し、文書化するのに役立ちます。
関連論文リスト
- From Prompt-Response to Goal-Directed Systems: The Evolution of Agentic AI Software Architecture [0.0]
Agentic AIは、ステートレスでプロンプト駆動型生成モデルからゴール指向システムへのアーキテクチャ移行を表す。
本稿では、知的エージェント理論と現代のLCM中心のアプローチを結びつけることによって、この遷移を考察する。
この研究は、標準化されたエージェントループ、登録、監査可能な制御機構への収束を特定する。
論文 参考訳(メタデータ) (2026-02-11T03:34:48Z) - Mirror: A Multi-Agent System for AI-Assisted Ethics Review [104.3684024153469]
MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
論文 参考訳(メタデータ) (2026-02-09T03:38:55Z) - SelfAI: Building a Self-Training AI System with LLM Agents [79.10991818561907]
SelfAIは、高レベルの研究目的を標準化された実験構成に変換するためのUser Agentを組み合わせた、一般的なマルチエージェントプラットフォームである。
実験マネージャは、連続的なフィードバックのための構造化知識ベースを維持しながら、異種ハードウェアをまたいだ並列かつフォールトトレラントなトレーニングを編成する。
回帰、コンピュータビジョン、科学計算、医用画像、薬物発見ベンチマークなどを通じて、SelfAIは一貫して高いパフォーマンスを達成し、冗長な試行を減らしている。
論文 参考訳(メタデータ) (2025-11-29T09:18:39Z) - Embedded Universal Predictive Intelligence: a coherent framework for multi-agent learning [57.23345786304694]
予測学習のための枠組みと自己予測を中心とした組込みエージェントを導入する。
マルチエージェント設定では、エージェントが類似したアルゴリズムを実行している他のエージェントについて推論することができる。
我々は、AIXIの理論を拡張し、Solomonoffから始まる普遍的なインテリジェントな埋め込みエージェントについて研究する。
論文 参考訳(メタデータ) (2025-11-27T08:46:48Z) - The Role of Social Learning and Collective Norm Formation in Fostering Cooperation in LLM Multi-Agent Systems [13.628908663240564]
我々は、明確な報酬信号を取り除き、文化進化機構を組み込むCPRシミュレーションフレームワークを導入する。
環境および社会的初期化のグリッドである2時間2ドルの標準的進化について検討する。
本研究は,協調の維持と規範形成における系統的モデルの違いを明らかにする。
論文 参考訳(メタデータ) (2025-10-16T07:59:31Z) - A Survey of Vibe Coding with Large Language Models [93.88284590533242]
視覚符号化(Vibe Coding)は、開発者が成果観察を通じてAI生成の実装を検証する開発手法である。
変革の可能性にもかかわらず、この創発的パラダイムの有効性は未解明のままである。
この調査は、大規模な言語モデルによるVibe Codingの総合的かつ体系的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-10-14T11:26:56Z) - Multi-level Value Alignment in Agentic AI Systems: Survey and Perspectives [29.49571891159761]
エージェントAIシステムの価値アライメントは、エージェントの目標、嗜好、行動が人間の価値観や社会的規範と一致することを保証することを目的としている。
本研究では,エージェントAIシステムの代表的アーキタイプとして,LLMに基づくマルチエージェントシステムにおける価値アライメントを包括的にレビューする。
論文 参考訳(メタデータ) (2025-06-11T12:25:38Z) - Large Language Model Agent: A Survey on Methodology, Applications and Challenges [88.3032929492409]
大きな言語モデル(LLM)エージェントは、目標駆動の振る舞いと動的適応能力を持ち、人工知能への重要な経路を示す可能性がある。
本調査は, LLMエージェントシステムを方法論中心の分類法により体系的に分解する。
私たちの作業は、エージェントの構築方法、コラボレーション方法、時間の経過とともにどのように進化するか、という、統一されたアーキテクチャの視点を提供します。
論文 参考訳(メタデータ) (2025-03-27T12:50:17Z) - Measuring Value Alignment [12.696227679697493]
本稿では,AIシステムと人的価値の整合性を定量化する新しいフォーマリズムを提案する。
このフォーマリズムを利用することで、AI開発者と倫理学者は、人間の価値と調和して動作するように、AIシステムを設計し、評価することができる。
論文 参考訳(メタデータ) (2023-12-23T12:30:06Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。