論文の概要: The Disparate Effects of Partial Information in Bayesian Strategic Learning
- arxiv url: http://arxiv.org/abs/2506.00627v1
- Date: Sat, 31 May 2025 16:34:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.375855
- Title: The Disparate Effects of Partial Information in Bayesian Strategic Learning
- Title(参考訳): ベイズ戦略学習における部分情報の相違効果
- Authors: Srikanth Avasarala, Serena Wang, Juba Ziani,
- Abstract要約: スコアリングルールに関する部分的な情報が,戦略的学習環境における公平性にどのように影響するかを検討する。
我々は,ノイズ信号を顔の値で捉えるナイーブエージェントと,その信号に基づいて事前の信念を更新するベイズエージェントの2つの異なるエージェントモデルを考える。
- 参考スコア(独自算出の注目度): 4.977191491791789
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study how partial information about scoring rules affects fairness in strategic learning settings. In strategic learning, a learner deploys a scoring rule, and agents respond strategically by modifying their features -- at some cost -- to improve their outcomes. However, in our work, agents do not observe the scoring rule directly; instead, they receive a noisy signal of said rule. We consider two different agent models: (i) naive agents, who take the noisy signal at face value, and (ii) Bayesian agents, who update a prior belief based on the signal. Our goal is to understand how disparities in outcomes arise between groups that differ in their costs of feature modification, and how these disparities vary with the level of transparency of the learner's rule. For naive agents, we show that utility disparities can grow unboundedly with noise, and that the group with lower costs can, perhaps counter-intuitively, be disproportionately harmed under limited transparency. In contrast, for Bayesian agents, disparities remain bounded. We provide a full characterization of disparities across groups as a function of the level of transparency and show that they can vary non-monotonically with noise; in particular, disparities are often minimized at intermediate levels of transparency. Finally, we extend our analysis to settings where groups differ not only in cost, but also in prior beliefs, and study how this asymmetry influences fairness.
- Abstract(参考訳): スコアリングルールに関する部分的な情報が,戦略的学習環境における公平性に与える影響について検討する。
戦略的学習では、学習者はスコアリングルールをデプロイし、エージェントは、結果を改善するために、機能を(ある程度のコストで)変更することで、戦略的に反応する。
しかし、我々の研究では、エージェントはスコアリングルールを直接観察せず、そのルールのノイズ信号を受け取る。
我々は2つの異なるエージェントモデルを考える。
一 雑音信号を額面で受け取り、かつ
(二 信号に基づいて事前の信条を更新するベイズ代理人。)
我々のゴールは、特徴修正のコストが異なるグループ間で結果の相違がどのように生じるか、そしてこれらの相違が学習者の規則の透明性のレベルによってどのように変化するかを理解することである。
ナイーブエージェントの場合、実用性格差はノイズによって無拘束に成長し、コストの低いグループは、おそらく、おそらくは非意図的に、限られた透明性の下で不均等に害を受ける可能性があることを示す。
対照的に、ベイズエージェントにとって、相違は依然として有界である。
透明性のレベルを関数としてグループ間での格差をフルに評価し、ノイズで非単調に変化できることを示します。
最後に、我々は分析をコストだけでなく、事前の信念でも異なる設定にまで拡張し、この非対称性が公正性にどのように影響するかを研究する。
関連論文リスト
- Interactional Fairness in LLM Multi-Agent Systems: An Evaluation Framework [0.0]
マルチエージェントシステムにおける対人フェアネス(IF)と情報フェアネス(InfF)を含むインタラクションフェアネスを評価するための新しい枠組みを提案する。
我々は,資源交渉タスクの制御されたシミュレーションを用いて,パイロットスタディを通じて,我々の枠組みを検証する。
その結果、客観的な結果が一定である場合でも、トーンと正当化品質が受容決定に大きく影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2025-05-17T13:24:13Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Addressing Strategic Manipulation Disparities in Fair Classification [15.032416453073086]
少数派の個人が、機能更新に高額な費用を払っていることがよく示されます。
マイノリティグループに対する戦略的操作コストを低減させる分類器を構築するための制約付き最適化フレームワークを提案する。
実世界の複数のデータセットに対して,本手法の有効性を実証的に示す。
論文 参考訳(メタデータ) (2022-05-22T14:59:40Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Fair Classification with Group-Dependent Label Noise [6.324366770332667]
本研究は,学習ラベルがランダムノイズで破損した環境で,公平な分類器を訓練する方法を検討する。
異種・集団依存の誤差率を考慮せずに、人口格差尺度にパリティ制約を鼻で課すことにより、その結果の精度と公平性を低下させることができることを示す。
論文 参考訳(メタデータ) (2020-10-31T22:35:01Z) - Understanding Adversarial Examples from the Mutual Influence of Images
and Perturbations [83.60161052867534]
クリーンな画像と敵の摂動を遠ざけることで敵の例を分析し,その相互への影響を分析した。
以上の結果から,画像と普遍摂動の関係に対する新たな視点が示唆された。
我々は、オリジナルトレーニングデータを活用することなく、目標とするユニバーサルアタックの挑戦的なタスクを最初に達成した人物です。
論文 参考訳(メタデータ) (2020-07-13T05:00:09Z) - Weakly-Supervised Disentanglement Without Compromises [53.55580957483103]
インテリジェントエージェントは、環境の変化を観察することで、有用な表現を学べるべきである。
変動の要因の少なくとも1つを共有する非I.d.画像のペアとしてそのような観測をモデル化する。
我々は,どの因子が変化したかのみを知るだけで,非絡み合った表現を学ぶのに十分であることを示す。
論文 参考訳(メタデータ) (2020-02-07T16:39:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。