論文の概要: Alternative Microfoundations for Strategic Classification
- arxiv url: http://arxiv.org/abs/2106.12705v1
- Date: Thu, 24 Jun 2021 00:30:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-25 14:49:09.361328
- Title: Alternative Microfoundations for Strategic Classification
- Title(参考訳): 戦略分類のための代替マイクロファウンデーション
- Authors: Meena Jagadeesan, Celestine Mendler-D\"unner, Moritz Hardt
- Abstract要約: 完全な情報を持つ合理的なエージェントは、決定規則に対する集合的応答において不連続を生じさせることを示す。
標準的なマイクロファウンデーションの下での最適決定ルールは、社会的負担として知られる負の外部性の尺度を最大化する。
我々のモデルは、分析的トラクタビリティを保持し、安定点に関するより堅牢な洞察をもたらし、最適性において社会的負担を低くする。
- 参考スコア(独自算出の注目度): 33.67797984699066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When reasoning about strategic behavior in a machine learning context it is
tempting to combine standard microfoundations of rational agents with the
statistical decision theory underlying classification. In this work, we argue
that a direct combination of these standard ingredients leads to brittle
solution concepts of limited descriptive and prescriptive value. First, we show
that rational agents with perfect information produce discontinuities in the
aggregate response to a decision rule that we often do not observe empirically.
Second, when any positive fraction of agents is not perfectly strategic,
desirable stable points -- where the classifier is optimal for the data it
entails -- cease to exist. Third, optimal decision rules under standard
microfoundations maximize a measure of negative externality known as social
burden within a broad class of possible assumptions about agent behavior.
Recognizing these limitations we explore alternatives to standard
microfoundations for binary classification. We start by describing a set of
desiderata that help navigate the space of possible assumptions about how
agents respond to a decision rule. In particular, we analyze a natural
constraint on feature manipulations, and discuss properties that are sufficient
to guarantee the robust existence of stable points. Building on these insights,
we then propose the noisy response model. Inspired by smoothed analysis and
empirical observations, noisy response incorporates imperfection in the agent
responses, which we show mitigates the limitations of standard
microfoundations. Our model retains analytical tractability, leads to more
robust insights about stable points, and imposes a lower social burden at
optimality.
- Abstract(参考訳): 機械学習のコンテキストにおける戦略的行動について推論する場合、合理的エージェントの標準的なマイクロファウンデーションと統計的決定理論を基礎とする分類を組み合わせる傾向があります。
本稿では,これらの標準成分の直接的な組み合わせが,限定的な記述的価値と規範的価値という脆い解概念につながることを論じる。
まず,完全情報を持つ有理エージェントが,経験的に観察されない決定規則に対する集合的応答の不連続を生じさせることを示す。
第二に、任意の正のエージェントが完全に戦略的でない場合、望ましい安定点 -- 分類器が必要とするデータに対して最適である -- が存在しなくなる。
第3に、標準的なマイクロファウンデーションの下での最適決定規則は、エージェントの行動に関する幅広い仮定の中で社会的負担として知られる負の外部性の尺度を最大化する。
これらの制限を認識して、バイナリ分類のための標準マイクロファウンデーションに代わる方法を模索する。
まず、エージェントが決定ルールにどう反応するかに関する考えられる仮定の空間をナビゲートするのに役立つデシデラタのセットを記述することから始める。
特に,特徴操作に関する自然な制約を分析し,安定点の存在を保証するのに十分な特性について論じる。
これらの知見に基づいて,ノイズ応答モデルを提案する。
平滑化分析と経験的観察から着想を得たノイズ応答はエージェント応答に不完全性が組み込まれ、標準マイクロファウンデーションの限界を緩和する。
モデルでは, 分析性を維持し, 安定点に対するより強固な洞察を導き, 最適な社会的負担を少なくする。
関連論文リスト
- Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Non-linear Welfare-Aware Strategic Learning [10.448052192725168]
本稿では,戦略的個人行動の存在下でのアルゴリズム的意思決定について考察する。
まず,先行研究におけるエージェントベスト応答モデルを非線形設定に一般化する。
制限条件下でのみ3つの福祉が同時に最適な状態が得られることを示す。
論文 参考訳(メタデータ) (2024-05-03T01:50:03Z) - Bi-Level Offline Policy Optimization with Limited Exploration [1.8130068086063336]
我々は、固定された事前コンパイルされたデータセットに基づいて良いポリシーを学習しようとするオフライン強化学習(RL)について研究する。
ポリシー(上層)と値関数(下層)の階層的相互作用をモデル化する2レベル構造化ポリシー最適化アルゴリズムを提案する。
我々は、オフラインRLのための合成、ベンチマーク、実世界のデータセットを混合して評価し、最先端の手法と競合することを示す。
論文 参考訳(メタデータ) (2023-10-10T02:45:50Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Distributionally Robust Model-Based Offline Reinforcement Learning with
Near-Optimal Sample Complexity [39.886149789339335]
オフライン強化学習は、積極的に探索することなく、履歴データから意思決定を行うことを学習することを目的としている。
環境の不確実性や変動性から,デプロイされた環境が,ヒストリデータセットの収集に使用される名目上のものから逸脱した場合でも,良好に機能するロバストなポリシーを学ぶことが重要である。
オフラインRLの分布的ロバストな定式化を考察し、有限水平および無限水平の両方でクルバック・リーブラー発散によって指定された不確実性セットを持つロバストマルコフ決定過程に着目する。
論文 参考訳(メタデータ) (2022-08-11T11:55:31Z) - Off-Policy Evaluation with Policy-Dependent Optimization Response [90.28758112893054]
我々は,テキスト政治に依存した線形最適化応答を用いた非政治評価のための新しいフレームワークを開発した。
摂動法による政策依存推定のための非バイアス推定器を構築する。
因果介入を最適化するための一般的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-25T20:25:37Z) - On the estimation of discrete choice models to capture irrational
customer behaviors [4.683806391173103]
我々は、部分的にランク付けされた好みを使って、トランザクションデータから合理的で不合理な顧客タイプを効率的にモデル化する方法を示す。
提案手法の予測精度を評価する実験を幅広く行った。
論文 参考訳(メタデータ) (2021-09-08T19:19:51Z) - Minimax Off-Policy Evaluation for Multi-Armed Bandits [58.7013651350436]
有界報酬を用いたマルチアームバンディットモデルにおけるオフポリシー評価の問題点について検討する。
3つの設定でミニマックスレート・オプティマティックな手順を開発。
論文 参考訳(メタデータ) (2021-01-19T18:55:29Z) - Learning Strategies in Decentralized Matching Markets under Uncertain
Preferences [91.3755431537592]
エージェントの選好が不明な場合,共有資源の不足の設定における意思決定の問題について検討する。
我々のアプローチは、再生されたカーネルヒルベルト空間における好みの表現に基づいている。
エージェントの期待した利益を最大化する最適な戦略を導出する。
論文 参考訳(メタデータ) (2020-10-29T03:08:22Z) - Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses [14.626432428431594]
本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
論文 参考訳(メタデータ) (2020-09-15T15:14:08Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。