論文の概要: When In Doubt, Abstain: The Impact of Abstention on Strategic Classification
- arxiv url: http://arxiv.org/abs/2510.13327v1
- Date: Wed, 15 Oct 2025 09:13:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.590071
- Title: When In Doubt, Abstain: The Impact of Abstention on Strategic Classification
- Title(参考訳): 疑念を抱く時, 断念が戦略分類に及ぼす影響
- Authors: Lina Alkarmi, Ziyuan Huang, Mingyan Liu,
- Abstract要約: 本稿では,戦略的分類の文脈における棄権について検討する。
最適な棄権は、主観的効用が非棄権的条件よりも悪くないことを保証することを示す。
また、禁忌は操作の抑止力としても機能し、操作するエージェントがポジティブな結果を得るのにコストがかかることも示している。
- 参考スコア(独自算出の注目度): 11.395181681423892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic decision making is increasingly prevalent, but often vulnerable to strategic manipulation by agents seeking a favorable outcome. Prior research has shown that classifier abstention (allowing a classifier to decline making a decision due to insufficient confidence) can significantly increase classifier accuracy. This paper studies abstention within a strategic classification context, exploring how its introduction impacts strategic agents' responses and how principals should optimally leverage it. We model this interaction as a Stackelberg game where a principal, acting as the classifier, first announces its decision policy, and then strategic agents, acting as followers, manipulate their features to receive a desired outcome. Here, we focus on binary classifiers where agents manipulate observable features rather than their true features, and show that optimal abstention ensures that the principal's utility (or loss) is no worse than in a non-abstention setting, even in the presence of strategic agents. We also show that beyond improving accuracy, abstention can also serve as a deterrent to manipulation, making it costlier for agents, especially those less qualified, to manipulate to achieve a positive outcome when manipulation costs are significant enough to affect agent behavior. These results highlight abstention as a valuable tool for reducing the negative effects of strategic behavior in algorithmic decision making systems.
- Abstract(参考訳): アルゴリズムによる意思決定はますます普及しているが、しばしば有利な結果を求めるエージェントによる戦略的な操作に弱い。
従来の研究では、分類器の棄却(信頼性が不十分なため決定を下すことができる)は分類器の精度を著しく向上させることが示されている。
本稿では,戦略分類の文脈における棄権について検討し,その導入が戦略エージェントの反応にどのように影響するか,プリンシパルがそれを最適に活用すべきかを考察する。
私たちはこのインタラクションをStackelbergのゲームとしてモデル化します。そこでは、プリンシパルが分類者として行動し、まず決定ポリシーを発表し、次に戦略エージェントがフォロワーとして行動し、彼らの機能を操作して望ましい結果を得るのです。
ここでは, エージェントが真の特徴よりも観測可能な特徴を操作できるバイナリ分類器に注目し, 最適化された禁忌が, 戦略エージェントの存在下においても, プリンシパルの実用性(または損失)が非拘束条件よりも悪いことを保証していることを示す。
また, 精度の向上以外にも, エージェントの操作に対する抑止力としても機能し, 操作コストがエージェントの動作に影響を及ぼすほど大きい場合には, 操作に適さないエージェント, 特に資格の低いエージェントに対して, 操作効率を高めることができることを示した。
これらの結果は,アルゴリズムによる意思決定システムにおける戦略的行動の負の効果を低減するための貴重なツールとして,棄却を強調している。
関連論文リスト
- Collective dynamics of strategic classification [49.14942990735098]
ユーザと機関の集団間のフィードバックループ問題に進化ゲーム理論を適用した。
検知能力の向上は社会的コストを低減し,ユーザの改善につながる可能性が示唆された。
施設が利用者の人口に再適応する速度は、最終結果に果たす役割を担っている。
論文 参考訳(メタデータ) (2025-08-12T20:57:17Z) - Learning to Lead: Incentivizing Strategic Agents in the Dark [50.93875404941184]
一般化プリンシパルエージェントモデルのオンライン学習バージョンについて検討する。
この挑戦的な設定のための最初の証明可能なサンプル効率アルゴリズムを開発した。
我々は、プリンシパルの最適ポリシーを学ぶために、ほぼ最適な $tildeO(sqrtT) $ regret bound を確立する。
論文 参考訳(メタデータ) (2025-06-10T04:25:04Z) - Anticipating Gaming to Incentivize Improvement: Guiding Agents in (Fair) Strategic Classification [6.660458629649826]
アルゴリズムを騙そうとする個人の選択(「改善」)について検討する。
それらのインタラクションをStackelbergのゲームとして定式化し、そこで企業は(フェア)分類器をデプロイし、個人は戦略的に応答する。
論文 参考訳(メタデータ) (2025-05-08T18:47:23Z) - Strategic Classification With Externalities [11.36782598786846]
戦略分類問題の新しい変種を提案する。
実世界のアプリケーションによって動機づけられた我々のモデルは、あるエージェントの操作が他のエージェントに影響を与えることを決定的に許している。
特定の仮定の下では、このエージェント操作ゲームの純粋なナッシュ平衡はユニークであり、効率的に計算できることが示される。
論文 参考訳(メタデータ) (2024-10-10T15:28:04Z) - Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Classification Under Strategic Self-Selection [13.168262355330299]
自己選択が学習に与える影響と,学習が自己選択集団の構成に及ぼす影響について検討した。
本稿では,自己選択行動下での学習を効果的に最適化できる,識別可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-23T11:37:56Z) - Who Leads and Who Follows in Strategic Classification? [82.44386576129295]
戦略分類における役割の順序は、決定者とエージェントが互いの行動に適応する相対周波数によって決定される。
更新頻度を自由に選択できる意思決定者は,いずれの順番でスタックルバーグ均衡に収束する学習力学を誘導できることを示す。
論文 参考訳(メタデータ) (2021-06-23T16:48:46Z) - Catch Me if I Can: Detecting Strategic Behaviour in Peer Assessment [61.24399136715106]
我々は、試験やホームワークの査定や採用・昇進の査定など、様々な査定課題における戦略的行動の課題について考察する。
我々はこのような操作を検出する方法の設計に重点を置いている。
具体的には、エージェントがピアのサブセットを評価し、後に集約されたランキングを最終的な順序付けとして出力する設定について検討する。
論文 参考訳(メタデータ) (2020-10-08T15:08:40Z) - Causal Strategic Linear Regression [5.672132510411465]
信用スコアや学術試験のような多くの予測的な意思決定シナリオでは、意思決定者は、決定ルールを「ゲーム」するためにエージェントの正当性を説明するモデルを構築しなければならない。
私たちは、変更可能な属性の関数として、モデリングエージェントの結果の同時処理に参加します。
3つの異なる意思決定目標を最適化する意思決定ルールを学習するための効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-24T03:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。