論文の概要: Anticipating Gaming to Incentivize Improvement: Guiding Agents in (Fair) Strategic Classification
- arxiv url: http://arxiv.org/abs/2505.05594v1
- Date: Thu, 08 May 2025 18:47:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.05221
- Title: Anticipating Gaming to Incentivize Improvement: Guiding Agents in (Fair) Strategic Classification
- Title(参考訳): 改善のインセンティブを期待するゲーム:(フェア)戦略分類におけるエージェントの誘導
- Authors: Sura Alhanouti, Parinaz Naghizadeh,
- Abstract要約: アルゴリズムを騙そうとする個人の選択(「改善」)について検討する。
それらのインタラクションをStackelbergのゲームとして定式化し、そこで企業は(フェア)分類器をデプロイし、個人は戦略的に応答する。
- 参考スコア(独自算出の注目度): 6.660458629649826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning algorithms increasingly influence critical decision making in different application areas, understanding human strategic behavior in response to these systems becomes vital. We explore individuals' choice between genuinely improving their qualifications (``improvement'') vs. attempting to deceive the algorithm by manipulating their features (``manipulation'') in response to an algorithmic decision system. We further investigate an algorithm designer's ability to shape these strategic responses, and its fairness implications. Specifically, we formulate these interactions as a Stackelberg game, where a firm deploys a (fair) classifier, and individuals strategically respond. Our model incorporates both different costs and stochastic efficacy for manipulation and improvement. The analysis reveals different potential classes of agent responses, and characterizes optimal classifiers accordingly. Based on these, we highlight the impact of the firm's anticipation of strategic behavior, identifying when and why a (fair) strategic policy can not only prevent manipulation, but also incentivize agents to opt for improvement.
- Abstract(参考訳): 機械学習アルゴリズムが、異なるアプリケーション領域における決定に影響を及ぼすにつれて、これらのシステムに対する人間の戦略的行動を理解することが不可欠になる。
我々は,アルゴリズム決定システムに応答して,その特徴(「改善」)を操作することによってアルゴリズムを騙そうとする場合と,その能力(「改善」)を真に向上させる場合の個人選択について検討する。
さらに、これらの戦略応答を形作るアルゴリズム設計者の能力とその公正性について検討する。
具体的には、これらのインタラクションを、企業が(公正な)分類器をデプロイし、個人が戦略的に応答するStackelbergゲームとして定式化する。
我々のモデルは、操作と改善のための異なるコストと確率的効果の両方を取り入れている。
この分析によりエージェント応答の潜在的なクラスが異なることが明らかとなり、それに応じて最適な分類器を特徴づける。
これらのことから,企業による戦略行動の予測の影響を強調し,(公正な)戦略方針が操作を防げるだけでなく,改善を選択できるエージェントのインセンティブも与えている。
関連論文リスト
- EPO: Explicit Policy Optimization for Strategic Reasoning in LLMs via Reinforcement Learning [69.55982246413046]
戦略的推論のための明示的なポリシー最適化(EPO)を提案する。
EPOはオープンなアクション空間で戦略を提供し、任意のLLMエージェントにプラグインすることで、ゴール指向の振る舞いを動機付けることができる。
社会的および物理的領域にわたる実験は、EPOの長期的なゴールアライメント能力を示す。
論文 参考訳(メタデータ) (2025-02-18T03:15:55Z) - The Double-Edged Sword of Behavioral Responses in Strategic Classification: Theory and User Studies [7.695481260089599]
本稿では,アルゴリズムに対する人間の反応の行動バイアスを考慮した戦略的分類モデルを提案する。
分類器の誤認が、偏りのあるエージェントと合理的なエージェントの反応の異なるタイプの相違をもたらすことを示す。
行動バイアスのある戦略的エージェントは、完全に合理的な戦略エージェントと比較して、会社に利益をもたらすか、または(予想外の)害を与える可能性があることを示す。
論文 参考訳(メタデータ) (2024-10-23T17:42:54Z) - Classification Under Strategic Self-Selection [13.168262355330299]
自己選択が学習に与える影響と,学習が自己選択集団の構成に及ぼす影響について検討した。
本稿では,自己選択行動下での学習を効果的に最適化できる,識別可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-23T11:37:56Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Strategic Representation [20.43010800051863]
戦略マシンは ユーザーを操る表現を作れます
我々はこれを学習問題として定式化し、操作に頑健な意思決定のためのアルゴリズムを追求する。
我々の主な成果は、戦略的表現に拘わらずエラーを最小限に抑える学習アルゴリズムである。
論文 参考訳(メタデータ) (2022-06-17T04:20:57Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Who Leads and Who Follows in Strategic Classification? [82.44386576129295]
戦略分類における役割の順序は、決定者とエージェントが互いの行動に適応する相対周波数によって決定される。
更新頻度を自由に選択できる意思決定者は,いずれの順番でスタックルバーグ均衡に収束する学習力学を誘導できることを示す。
論文 参考訳(メタデータ) (2021-06-23T16:48:46Z) - Disturbing Reinforcement Learning Agents with Corrupted Rewards [62.997667081978825]
強化学習アルゴリズムに対する報酬の摂動に基づく異なる攻撃戦略の効果を分析します。
敵対的な報酬をスムーズに作成することは学習者を誤解させることができ、低探査確率値を使用すると、学習した政策は報酬を腐敗させるのがより堅牢であることを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:53:48Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。