論文の概要: Using Protected Attributes to Consider Fairness in Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2410.12889v1
- Date: Wed, 16 Oct 2024 08:12:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:18:44.319596
- Title: Using Protected Attributes to Consider Fairness in Multi-Agent Systems
- Title(参考訳): 保護属性を用いたマルチエージェントシステムの公正性の検討
- Authors: Gabriele La Malfa, Jie M. Zhang, Michael Luck, Elizabeth Black,
- Abstract要約: マルチエージェントシステム(MAS)の公正性は、システムのルール、エージェントの振る舞い、それらの特性など、さまざまな要因に依存する。
機械学習に基づく意思決定におけるバイアスに対処するアルゴリズムフェアネスの研究から着想を得た。
我々は、アルゴリズムの公正度文献から、自己関心のあるエージェントが環境内で相互作用するマルチエージェント設定まで、公平度メトリクスを適応させる。
- 参考スコア(独自算出の注目度): 7.061167083587786
- License:
- Abstract: Fairness in Multi-Agent Systems (MAS) has been extensively studied, particularly in reward distribution among agents in scenarios such as goods allocation, resource division, lotteries, and bargaining systems. Fairness in MAS depends on various factors, including the system's governing rules, the behaviour of the agents, and their characteristics. Yet, fairness in human society often involves evaluating disparities between disadvantaged and privileged groups, guided by principles of Equality, Diversity, and Inclusion (EDI). Taking inspiration from the work on algorithmic fairness, which addresses bias in machine learning-based decision-making, we define protected attributes for MAS as characteristics that should not disadvantage an agent in terms of its expected rewards. We adapt fairness metrics from the algorithmic fairness literature -- namely, demographic parity, counterfactual fairness, and conditional statistical parity -- to the multi-agent setting, where self-interested agents interact within an environment. These metrics allow us to evaluate the fairness of MAS, with the ultimate aim of designing MAS that do not disadvantage agents based on protected attributes.
- Abstract(参考訳): マルチエージェントシステム(MAS)における公正性は,特に商品配分,資源分割,宝くじ,取引システムといったシナリオにおけるエージェント間の報酬分布において広く研究されている。
MASの公正性は、システムの規則、エージェントの振る舞い、それらの特性など、様々な要因に依存する。
しかしながら、人間社会における公平性は、不平等、多様性、包摂性(EDI)の原則によって導かれる、不利益と特権のグループ間の格差を評価することを伴うことが多い。
機械学習に基づく意思決定におけるバイアスに対処するアルゴリズムフェアネスの研究からインスピレーションを得て、MASの保護属性を、期待される報酬の観点からエージェントを不利にすべきでない特性として定義する。
我々は、アルゴリズム的公正度文献(人口統計学的公平性、反事実的公正性、条件的統計的公平性)から、自己関心のあるエージェントが環境内で相互作用するマルチエージェント設定に適合する。
これらの指標により,保護された属性に基づいて不利なエージェントを設計することを目的として,MASの公平性を評価することができる。
関連論文リスト
- Social Choice for Heterogeneous Fairness in Recommendation [9.753088666705985]
推薦システムにおけるアルゴリズムの公正性は、様々な利害関係者のニーズによく注意する必要がある。
それまでの作業はしばしば、公正性の固定された単目的の定義によって制限されてきた。
我々の研究は、計算社会の選択の観点からのフェアネスを推奨する。
論文 参考訳(メタデータ) (2024-10-06T17:01:18Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fair Ranking with Noisy Protected Attributes [25.081136190260015]
商品の社会的特質が無作為かつ独立に摂動するモデルの下で、公平な問題を考察する。
本稿では,グループフェアネス要件と,社会的に安定な属性の摂動に関する確率的情報とを組み込んだ公平なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T15:22:28Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Unfairness Despite Awareness: Group-Fair Classification with Strategic
Agents [37.31138342300617]
戦略エージェントは、より良好な結果を得るために観察された特徴ベクトルを操作する能力とインセンティブの両方を持っている可能性があることを示す。
さらに、有利な群が過剰に表現される領域で公平な学習を行う際に、公平な分類器の選択性が増大し、したがって公正さが失われることが示される。
論文 参考訳(メタデータ) (2021-12-06T02:42:43Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。