論文の概要: Interactional Fairness in LLM Multi-Agent Systems: An Evaluation Framework
- arxiv url: http://arxiv.org/abs/2505.12001v1
- Date: Sat, 17 May 2025 13:24:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.983429
- Title: Interactional Fairness in LLM Multi-Agent Systems: An Evaluation Framework
- Title(参考訳): LLMマルチエージェントシステムにおけるインタラクションフェアネス:評価フレームワーク
- Authors: Ruta Binkyte,
- Abstract要約: マルチエージェントシステムにおける対人フェアネス(IF)と情報フェアネス(InfF)を含むインタラクションフェアネスを評価するための新しい枠組みを提案する。
我々は,資源交渉タスクの制御されたシミュレーションを用いて,パイロットスタディを通じて,我々の枠組みを検証する。
その結果、客観的な結果が一定である場合でも、トーンと正当化品質が受容決定に大きく影響を及ぼすことが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) are increasingly used in multi-agent systems, questions of fairness should extend beyond resource distribution and procedural design to include the fairness of how agents communicate. Drawing from organizational psychology, we introduce a novel framework for evaluating Interactional fairness encompassing Interpersonal fairness (IF) and Informational fairness (InfF) in LLM-based multi-agent systems (LLM-MAS). We extend the theoretical grounding of Interactional Fairness to non-sentient agents, reframing fairness as a socially interpretable signal rather than a subjective experience. We then adapt established tools from organizational justice research, including Colquitt's Organizational Justice Scale and the Critical Incident Technique, to measure fairness as a behavioral property of agent interaction. We validate our framework through a pilot study using controlled simulations of a resource negotiation task. We systematically manipulate tone, explanation quality, outcome inequality, and task framing (collaborative vs. competitive) to assess how IF influences agent behavior. Results show that tone and justification quality significantly affect acceptance decisions even when objective outcomes are held constant. In addition, the influence of IF vs. InfF varies with context. This work lays the foundation for fairness auditing and norm-sensitive alignment in LLM-MAS.
- Abstract(参考訳): 大規模言語モデル (LLM) がマルチエージェントシステムでますます使われるようになるにつれて、公正性の問題は資源分布を超えて、エージェントのコミュニケーションの公平性を含む手続き設計にまで拡張されるべきである。
組織心理学から,LLMに基づくマルチエージェントシステム(LLM-MAS)における対人フェアネス(IF)と情報フェアネス(InfF)を含むインタラクションフェアネスを評価するための新しい枠組みを導入する。
我々は、相互作用フェアネスの理論的基礎を、主観的な経験よりも社会的に解釈可能な信号として、非本質的なエージェントに拡張する。
次に、組織司法研究から確立されたツール、例えばコルキットの組織司法尺度や臨界事件技術を用いて、公正性をエージェント相互作用の行動特性として測定する。
我々は,資源交渉タスクの制御されたシミュレーションを用いて,パイロットスタディを通じて,我々の枠組みを検証する。
我々は,IFがエージェントの行動にどう影響するかを評価するために,トーン,品質,結果の不平等,タスクフレーミング(協調対競争)を体系的に操作する。
その結果、客観的な結果が一定である場合でも、トーンと正当化品質が受容決定に大きく影響を及ぼすことが示された。
さらに、IF対InfFの影響は文脈によって異なる。
この研究は、LLM-MASにおける公正監査とノルム感性アライメントの基礎を築いた。
関連論文リスト
- The Other Side of the Coin: Exploring Fairness in Retrieval-Augmented Generation [73.16564415490113]
Retrieval-Augmented Generation (RAG)は、外部の知識ソースから関連文書を取得することにより、Large Language Models (LLM)を強化する。
本稿では,小規模LLMにおいてRAGが導入した公平性問題を軽減するために,FairFTとFairFilterの2つのアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-11T10:17:10Z) - Fairness Mediator: Neutralize Stereotype Associations to Mitigate Bias in Large Language Models [66.5536396328527]
LLMは必然的にトレーニングデータから急激な相関関係を吸収し、偏りのある概念と特定の社会的グループの間のステレオタイプ的関連をもたらす。
ステレオタイプアソシエーションを中和するバイアス緩和フレームワークであるFairness Mediator (FairMed)を提案する。
本フレームワークは, ステレオタイプアソシエーションプローバーと, 対向型デバイアス中和剤の2つの主成分からなる。
論文 参考訳(メタデータ) (2025-04-10T14:23:06Z) - Collaborative Value Function Estimation Under Model Mismatch: A Federated Temporal Difference Analysis [55.13545823385091]
フェデレーション強化学習(FedRL)は、エージェント間のデータ交換を防止し、データのプライバシを維持しながら協調学習を可能にする。
現実世界のアプリケーションでは、各エージェントは若干異なる遷移ダイナミクスを経験し、固有のモデルミスマッチを引き起こす。
我々は、中程度のレベルの情報共有でも、環境固有のエラーを著しく軽減できることを示した。
論文 参考訳(メタデータ) (2025-03-21T18:06:28Z) - Distributive Fairness in Large Language Models: Evaluating Alignment with Human Values [13.798198972161657]
多くの社会的問題は資源の分配に関係しており、公平さと経済効率は結果の望ましさにおいて重要な役割を担っている。
本稿では,大規模言語モデル (LLM) が基本的公平性の概念に準拠しているかどうかを考察し,人間の嗜好との整合性について検討する。
論文 参考訳(メタデータ) (2025-02-01T04:24:47Z) - Fairness in Reinforcement Learning with Bisimulation Metrics [45.674943127750595]
公平さを考慮せずに報酬を最大化することにより、AIエージェントはグループや個人の扱いに格差を導入することができる。
そこで本研究では,バイシミュレーションのメトリクスを利用して報酬関数と観測ダイナミクスを学習する手法を提案する。
論文 参考訳(メタデータ) (2024-12-22T18:23:06Z) - Using Protected Attributes to Consider Fairness in Multi-Agent Systems [7.061167083587786]
マルチエージェントシステム(MAS)の公正性は、システムのルール、エージェントの振る舞い、それらの特性など、さまざまな要因に依存する。
機械学習に基づく意思決定におけるバイアスに対処するアルゴリズムフェアネスの研究から着想を得た。
我々は、アルゴリズムの公正度文献から、自己関心のあるエージェントが環境内で相互作用するマルチエージェント設定まで、公平度メトリクスを適応させる。
論文 参考訳(メタデータ) (2024-10-16T08:12:01Z) - Justice or Prejudice? Quantifying Biases in LLM-as-a-Judge [84.34545223897578]
多くの領域で優れているにもかかわらず、潜在的な問題は未解決のままであり、その信頼性と実用性の範囲を損なう。
提案手法は, LLM-as-a-Judgeにおける各種類のバイアスを定量化し, 解析する自動バイアス定量化フレームワークである。
当社の作業は、これらの問題に対処するステークホルダの必要性を強調し、LLM-as-a-Judgeアプリケーションで注意を喚起します。
論文 参考訳(メタデータ) (2024-10-03T17:53:30Z) - Few-Shot Fairness: Unveiling LLM's Potential for Fairness-Aware
Classification [7.696798306913988]
フェアネス定義に適合するフェアネス規則を概説する枠組みを導入する。
本稿では,テキスト内学習のための構成と,RAGを用いてテキスト内デモを選択する手順について検討する。
異なるLCMを用いて行った実験では、GPT-4は他のモデルと比較して精度と公平性の両方において優れた結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-02-28T17:29:27Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。