論文の概要: Strategic Classification Made Practical
- arxiv url: http://arxiv.org/abs/2103.01826v1
- Date: Tue, 2 Mar 2021 16:03:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 00:46:03.794020
- Title: Strategic Classification Made Practical
- Title(参考訳): 戦略分類を実践する
- Authors: Sagi Levanon and Nir Rosenfeld
- Abstract要約: 本稿では,戦略分類のための学習フレームワークを提案する。
当社のアプローチは,ユーザの戦略的対応を通じて差別化することで達成される,"戦略的"経験的リスクを直接的に最小化する。
様々な学習環境におけるアプローチの有効性について実験を行った。
- 参考スコア(独自算出の注目度): 8.778578967271866
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Strategic classification regards the problem of learning in settings where
users can strategically modify their features to improve outcomes. This setting
applies broadly and has received much recent attention. But despite its
practical significance, work in this space has so far been predominantly
theoretical. In this paper we present a learning framework for strategic
classification that is practical. Our approach directly minimizes the
"strategic" empirical risk, achieved by differentiating through the strategic
response of users. This provides flexibility that allows us to extend beyond
the original problem formulation and towards more realistic learning scenarios.
A series of experiments demonstrates the effectiveness of our approach on
various learning settings.
- Abstract(参考訳): 戦略分類は、ユーザーが結果を改善するために戦略的に機能を変更できるような環境での学習の問題について考察する。
この設定は広く適用され、近年注目を集めている。
しかし、その実用的意義にもかかわらず、この空間での作業はこれまで主に理論的に行われてきた。
本稿では,戦略的分類のための実践的な学習フレームワークを提案する。
当社のアプローチは,ユーザの戦略的対応を通じて差別化することで達成される,"戦略的"経験的リスクを直接的に最小化する。
これにより、元の問題定式化を超えて、より現実的な学習シナリオに拡張できる柔軟性を提供します。
様々な学習環境におけるアプローチの有効性について実験を行った。
関連論文リスト
- LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Program-Based Strategy Induction for Reinforcement Learning [5.657991642023959]
ベイジアンプログラム誘導を用いて、プログラムによって実行された戦略を発見することで、戦略の単純さがそれらの効果と引き換えにできる。
古典的な漸進的な学習では難しい、あるいは予期せぬ戦略を見つけます。例えば、報奨と無報酬トライアルからの非対称学習、適応的な地平線依存ランダム探索、離散状態切替などです。
論文 参考訳(メタデータ) (2024-02-26T15:40:46Z) - Classification Under Strategic Self-Selection [13.168262355330299]
自己選択が学習に与える影響と,学習が自己選択集団の構成に及ぼす影響について検討した。
本稿では,自己選択行動下での学習を効果的に最適化できる,識別可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-23T11:37:56Z) - Representation-Driven Reinforcement Learning [57.44609759155611]
強化学習のための表現駆動型フレームワークを提案する。
期待値の見積もりとしてポリシーを表現することにより、我々は、探索と搾取を導くために、文脈的盗賊の手法を活用する。
このフレームワークの有効性を,進化的および政策的勾配に基づくアプローチに適用することによって実証する。
論文 参考訳(メタデータ) (2023-05-31T14:59:12Z) - Strategic Classification with Graph Neural Networks [10.131895986034316]
学習にグラフを使用すると、予測にユーザ間の依存関係が導入される。
本稿では,グラフに基づく分類器の戦略的ロバスト学習のための微分可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-31T13:11:25Z) - Generalized Strategic Classification and the Case of Aligned Incentives [16.607142366834015]
戦略的なユーザー行動の理由について、より広い視点で議論する。
我々のモデルは現在のモデルの多くを仮定するが、他の新しい設定を含んでいる。
結果とアプローチが,最も一般的なケースにどのように拡張できるかを示す。
論文 参考訳(メタデータ) (2022-02-09T09:36:09Z) - Curriculum Design for Teaching via Demonstrations: Theory and
Applications [29.71112499480574]
本研究では,学習者の収束を早めるために,実演よりもパーソナライズされたカリキュラムを設計する方法を検討する。
我々は,2つの一般的な学習モデルに対して,因果エントロピー逆強化学習(MaxEnt-IRL)とクロスエントロピー行動クローン(CrossEnt-BC)の統一的なカリキュラム戦略を提供する。
論文 参考訳(メタデータ) (2021-06-08T21:15:00Z) - Off-Policy Imitation Learning from Observations [78.30794935265425]
観察からの学習(lfo)は、多くのアプリケーションが利用できる実用的な強化学習シナリオである。
オフポリシ最適化を原則的に実現するサンプル効率の高いLfOアプローチを提案する。
我々のアプローチは、サンプル効率と性能の両面で最先端のロコモーションに匹敵する。
論文 参考訳(メタデータ) (2021-02-25T21:33:47Z) - Disturbing Reinforcement Learning Agents with Corrupted Rewards [62.997667081978825]
強化学習アルゴリズムに対する報酬の摂動に基づく異なる攻撃戦略の効果を分析します。
敵対的な報酬をスムーズに作成することは学習者を誤解させることができ、低探査確率値を使用すると、学習した政策は報酬を腐敗させるのがより堅牢であることを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:53:48Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Learning Adaptive Exploration Strategies in Dynamic Environments Through
Informed Policy Regularization [100.72335252255989]
本研究では,動的環境に効果的に適応する探索探索探索戦略の課題について検討する。
本稿では,各タスクにおける報酬を最大化するために訓練された情報ポリシを用いて,RNNベースのポリシーのトレーニングを規則化する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-06T16:14:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。