論文の概要: Gaming Helps! Learning from Strategic Interactions in Natural Dynamics
- arxiv url: http://arxiv.org/abs/2002.07024v3
- Date: Sun, 28 Feb 2021 15:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 12:36:44.824192
- Title: Gaming Helps! Learning from Strategic Interactions in Natural Dynamics
- Title(参考訳): ゲーミングヘルプ!
自然力学における戦略的相互作用から学ぶ
- Authors: Yahav Bechavod, Katrina Ligett, Zhiwei Steven Wu, Juba Ziani
- Abstract要約: 個人が回帰モデルに適応するオンライン回帰設定を考える。
このような戦略的操作は、実際に学習者が有意義な変数を回復するのに役立ちます。
- 参考スコア(独自算出の注目度): 31.670231315699237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider an online regression setting in which individuals adapt to the
regression model: arriving individuals are aware of the current model, and
invest strategically in modifying their own features so as to improve the
predicted score that the current model assigns to them. Such feature
manipulation has been observed in various scenarios -- from credit assessment
to school admissions -- posing a challenge for the learner. Surprisingly, we
find that such strategic manipulations may in fact help the learner recover the
meaningful variables -- that is, the features that, when changed, affect the
true label (as opposed to non-meaningful features that have no effect). We show
that even simple behavior on the learner's part allows her to simultaneously i)
accurately recover the meaningful features, and ii) incentivize agents to
invest in these meaningful features, providing incentives for improvement.
- Abstract(参考訳): 我々は、個人が回帰モデルに適応するオンライン回帰設定を考察する: 到着した個人は現在のモデルを認識し、現在のモデルが割り当てる予測スコアを改善するために、自分たちの特徴を変更するために戦略的に投資する。
このような特徴操作は、信用評価から学校入学まで、さまざまなシナリオで観察されており、学習者には課題となっている。
意外なことに、このような戦略的操作は、学習者が意味のある変数、つまり変化した時に本当のラベルに影響を及ぼす特徴(効果のない意味のない特徴とは対照的に)を回復するのに役立ちます。
学習者の単純な行動でも同時に行うことができることを示す。
一 意味のある特徴を正確に回復し
二 この有意義な機能に投資するインセンティブをエージェントに与え、改善のインセンティブを提供する。
関連論文リスト
- Feature Responsiveness Scores: Model-Agnostic Explanations for Recourse [7.730963708373791]
消費者保護規則は、有害な判断を受けた消費者に「原則的理由」のリストを提供することを義務付けている。
実際には、貸し手や雇用主は、特徴帰属法から上位の特徴を返却することで、主な理由を特定できる。
本研究は,標準的な帰属手法が,無言の理由を強調することによって,個人を誤解させる可能性があることを示す。
応答性に基づいて特徴をスコアリングすることで,これらの問題に対処することを提案する。
論文 参考訳(メタデータ) (2024-10-29T23:37:49Z) - Learning under Imitative Strategic Behavior with Unforeseeable Outcomes [14.80947863438795]
個人と意思決定者間の相互作用をモデル化するStackelbergゲームを提案する。
両者の目的的差異を3つの解釈可能な項に分解できることを示す。
論文 参考訳(メタデータ) (2024-05-03T00:53:58Z) - Classification Under Strategic Self-Selection [13.168262355330299]
自己選択が学習に与える影響と,学習が自己選択集団の構成に及ぼす影響について検討した。
本稿では,自己選択行動下での学習を効果的に最適化できる,識別可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-23T11:37:56Z) - MERMAIDE: Learning to Align Learners using Model-Based Meta-Learning [62.065503126104126]
本研究では,先見のつかない学習エージェントの報酬を効率よく効果的に介入し,望ましい結果を導き出す方法について検討する。
これはオークションや課税のような現実世界の多くの設定に関係しており、プリンシパルは学習行動や実際の人々の報酬を知らないかもしれない。
モデルに基づくメタ学習フレームワークであるMERMAIDEを導入し,配布外エージェントに迅速に適応できるプリンシパルを訓練する。
論文 参考訳(メタデータ) (2023-04-10T15:44:50Z) - Causal Strategic Classification: A Tale of Two Shifts [11.929584800629675]
戦略行動と因果効果が,2つの相補的な分布シフトをいかに生み出すかを示す。
本稿では,この2つの力のバランスと時間とともに学習アルゴリズムを提案し,エンドツーエンドのトレーニングを可能にした。
論文 参考訳(メタデータ) (2023-02-13T11:35:59Z) - Feature Forgetting in Continual Representation Learning [48.89340526235304]
表現は、平凡な連続学習においても「破滅的な忘れ」に苦しめられることはないが、その特徴についてはほとんど知られていない。
連続的な学習における表現を評価するためのプロトコルを考案し、それを用いて連続的な表現学習の基本的傾向の概要を示す。
特徴忘れ問題を研究するために、ニューラルネットワークにおける特徴忘れの頻度を識別し視覚化する合成データセットを作成する。
論文 参考訳(メタデータ) (2022-05-26T13:38:56Z) - Generative Adversarial Reward Learning for Generalized Behavior Tendency
Inference [71.11416263370823]
ユーザの行動嗜好モデルのための生成的逆強化学習を提案する。
我々のモデルは,差別的アクター批判ネットワークとWasserstein GANに基づいて,ユーザの行動から報酬を自動的に学習することができる。
論文 参考訳(メタデータ) (2021-05-03T13:14:25Z) - PsiPhi-Learning: Reinforcement Learning with Demonstrations using
Successor Features and Inverse Temporal Difference Learning [102.36450942613091]
時間差学習(ITD)と呼ばれる逆強化学習アルゴリズムを提案する。
Psi Phi$-learningと呼ばれるデモで強化学習のための新しいアルゴリズムに到達し、オンライン環境の相互作用から学習とITDをシームレスに統合する方法を示します。
論文 参考訳(メタデータ) (2021-02-24T21:12:09Z) - Linear Classifiers that Encourage Constructive Adaptation [6.324366770332667]
本研究では,2段階ゲームとしての予測と適応のダイナミクスを考察し,モデルデザイナとその決定対象に対する最適な戦略を特徴付ける。
シミュレーションおよび実世界のデータセットのベンチマークでは、我々の手法を用いて訓練された分類器が既存の手法の精度を維持しつつ、より高いレベルの改善と少ない操作を誘導していることがわかった。
論文 参考訳(メタデータ) (2020-10-31T20:35:32Z) - Ecological Reinforcement Learning [76.9893572776141]
このような条件下での学習を容易にする環境特性について検討する。
環境の特性が強化学習エージェントのパフォーマンスにどのように影響するかを理解することは、学習を魅力的にする方法でタスクを構造化するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-22T17:55:03Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。