論文の概要: Desirable Effort Fairness and Optimality Trade-offs in Strategic Learning
- arxiv url: http://arxiv.org/abs/2510.19098v1
- Date: Tue, 21 Oct 2025 21:43:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.731013
- Title: Desirable Effort Fairness and Optimality Trade-offs in Strategic Learning
- Title(参考訳): 戦略的学習における好ましくない公正性と最適トレードオフ
- Authors: Valia Efthymiou, Ekaterina Fedorova, Chara Podimata,
- Abstract要約: 意思決定ルールが、より優れた結果を得るために、戦略的にインプット/機能を変更するエージェントとどのように相互作用するかを検討する。
このトレードオフを捉えた主エージェント相互作用の統一モデルを提案する。
- 参考スコア(独自算出の注目度): 4.702729080310267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Strategic learning studies how decision rules interact with agents who may strategically change their inputs/features to achieve better outcomes. In standard settings, models assume that the decision-maker's sole scope is to learn a classifier that maximizes an objective (e.g., accuracy) assuming that agents best respond. However, real decision-making systems' goals do not align exclusively with producing good predictions. They may consider the external effects of inducing certain incentives, which translates to the change of certain features being more desirable for the decision maker. Further, the principal may also need to incentivize desirable feature changes fairly across heterogeneous agents. How much does this constrained optimization (i.e., maximize the objective, but restrict agents' incentive disparity) cost the principal? We propose a unified model of principal-agent interaction that captures this trade-off under three additional components: (1) causal dependencies between features, such that changes in one feature affect others; (2) heterogeneous manipulation costs between agents; and (3) peer learning, through which agents infer the principal's rule. We provide theoretical guarantees on the principal's optimality loss constrained to a particular desirability fairness tolerance for multiple broad classes of fairness measures. Finally, through experiments on real datasets, we show the explicit tradeoff between maximizing accuracy and fairness in desirability effort.
- Abstract(参考訳): 戦略的学習は、より良い結果を達成するために、戦略的にインプット/機能を変更するエージェントと意思決定ルールがどのように相互作用するかを研究する。
標準設定では、モデルが意思決定者の唯一のスコープは、エージェントが最も反応するであろう目的(例えば精度)を最大化する分類器を学ぶことであると仮定する。
しかし、真の意思決定システムの目標は、良い予測を生み出すことだけに一致しない。
彼らは、特定のインセンティブを誘導する外部的効果を考えることができ、それは、意思決定者にとってより望ましい特定の特徴の変化を意味する。
さらに、プリンシパルは、不均一なエージェント間での望ましい特徴変化をかなり刺激する必要があるかもしれない。
この制約付き最適化(すなわち、目的を最大化するが、エージェントのインセンティブ格差を制限する)は、プリンシパルにどの程度のコストを課すのか?
本稿では,(1)特徴の変化が他の特徴に影響を及ぼすような特徴間の因果依存性,(2)エージェント間の不均一な操作コスト,(3)エージェントがプリンシパルのルールを推測するピアラーニングという,このトレードオフを捉えたプリンシパルエージェントインタラクションの統一モデルを提案する。
我々は、複数の幅広い公正度尺度のクラスに対して、特定の所望の公正性許容性に制約されたプリンシパルの最適性損失に関する理論的保証を提供する。
最後に、実データセットの実験を通して、所望の努力における精度の最大化と公平性の明確なトレードオフを示す。
関連論文リスト
- Learning to Lead: Incentivizing Strategic Agents in the Dark [50.93875404941184]
一般化プリンシパルエージェントモデルのオンライン学習バージョンについて検討する。
この挑戦的な設定のための最初の証明可能なサンプル効率アルゴリズムを開発した。
我々は、プリンシパルの最適ポリシーを学ぶために、ほぼ最適な $tildeO(sqrtT) $ regret bound を確立する。
論文 参考訳(メタデータ) (2025-06-10T04:25:04Z) - Joint Scoring Rules: Zero-Sum Competition Avoids Performative Prediction [0.0]
意思決定シナリオでは、プリンシパルは専門家エージェントから条件付き予測を使用して、選択を通知することができる。
予測精度を最適化するエージェントは、プリンシパルをより予測可能な行動に向けて操作するインセンティブを与え、プリンシパルが真の嗜好を決定的に選択できないようにする。
我々は,複数のエージェントの協調評価により,この不可能な結果を克服できることを実証した。
論文 参考訳(メタデータ) (2024-12-30T06:06:45Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Emulating Full Participation: An Effective and Fair Client Selection Strategy for Federated Learning [50.060154488277036]
連合学習では、クライアントの選択はモデルの性能と公平性の両方に大きな影響を及ぼす重要な問題である。
2つの指標間の固有の対立に対処し、互いに強化する2つの原則を提案する。
提案手法は,データ分布に基づいてクライアントを選択することにより,この多様性を適応的に向上させ,モデル性能と公平性の両方を改善する。
論文 参考訳(メタデータ) (2024-05-22T12:27:24Z) - Learning under Imitative Strategic Behavior with Unforeseeable Outcomes [14.80947863438795]
個人と意思決定者間の相互作用をモデル化するStackelbergゲームを提案する。
両者の目的的差異を3つの解釈可能な項に分解できることを示す。
論文 参考訳(メタデータ) (2024-05-03T00:53:58Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Learning to be Fair: A Consequentialist Approach to Equitable
Decision-Making [21.152377319502705]
等価なアルゴリズムを設計するための代替フレームワークを提案する。
このアプローチでは、まず第一に、決定の可能な空間よりも利害関係者の選好を導きます。
次に、決定ポリシーの空間を最適化し、提案されたユーティリティを最大化する方法でトレードオフを行います。
論文 参考訳(メタデータ) (2021-09-18T00:30:43Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - Why do you think that? Exploring Faithful Sentence-Level Rationales
Without Supervision [60.62434362997016]
文レベルで忠実な論理を出力するモデルを作成するために,異なる訓練枠組みを提案する。
本モデルでは,各理性に基づいて各課題を個別に解決し,その課題を最もよく解決した者に高いスコアを割り当てることを学ぶ。
論文 参考訳(メタデータ) (2020-10-07T12:54:28Z) - Causal Strategic Linear Regression [5.672132510411465]
信用スコアや学術試験のような多くの予測的な意思決定シナリオでは、意思決定者は、決定ルールを「ゲーム」するためにエージェントの正当性を説明するモデルを構築しなければならない。
私たちは、変更可能な属性の関数として、モデリングエージェントの結果の同時処理に参加します。
3つの異なる意思決定目標を最適化する意思決定ルールを学習するための効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-24T03:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。