論文の概要: Learning Losses for Strategic Classification
- arxiv url: http://arxiv.org/abs/2203.13421v1
- Date: Fri, 25 Mar 2022 02:26:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 13:53:12.321939
- Title: Learning Losses for Strategic Classification
- Title(参考訳): 戦略分類のための学習損失
- Authors: Tosca Lechner and Ruth Urner
- Abstract要約: 私たちは、よい決定ルールを学ぶのに必要な、サンプルの複雑さに焦点をあてて、学習理論的な視点を取ります。
我々は、関数クラスと演算グラフの複雑さの観点から、操作可能な既知のグラフのサンプル複雑性を解析する。
移動学習理論の手法を用いて、グラフを操作するための類似度尺度を定義し、その操作グラフの小さな変化に対して学習結果が堅牢であることを示す。
- 参考スコア(独自算出の注目度): 5.812499828391904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Strategic classification, i.e. classification under possible strategic
manipulations of features, has received a lot of attention from both the
machine learning and the game theory community. Most works focus on analysing
properties of the optimal decision rule under such manipulations. In our work
we take a learning theoretic perspective, focusing on the sample complexity
needed to learn a good decision rule which is robust to strategic manipulation.
We perform this analysis by introducing a novel loss function, the
\emph{strategic manipulation loss}, which takes into account both the accuracy
of the final decision rule and its vulnerability to manipulation. We analyse
the sample complexity for a known graph of possible manipulations in terms of
the complexity of the function class and the manipulation graph. Additionally,
we initialize the study of learning under unknown manipulation capabilities of
the involved agents. Using techniques from transfer learning theory, we define
a similarity measure for manipulation graphs and show that learning outcomes
are robust with respect to small changes in the manipulation graph. Lastly, we
analyse the (sample complexity of) learning of the manipulation capability of
agents with respect to this similarity measure, providing novel guarantees for
strategic classification with respect to an unknown manipulation graph.
- Abstract(参考訳): 戦略的分類(すなわち、機能の戦略的操作の可能性に基づく分類)は、機械学習とゲーム理論コミュニティの両方から多くの注目を集めている。
ほとんどの研究は、このような操作の下で最適な決定規則の特性を分析することに重点を置いている。
私たちの研究では、戦略的操作に堅牢な優れた決定ルールを学ぶのに必要な、サンプルの複雑さに焦点をあてて、学習理論的な視点を取ります。
この分析は,最終決定規則の精度と,その操作に対する脆弱性を考慮に入れた,新たな損失関数であるemph{strategic operation loss}を導入することで行う。
我々は、関数クラスと演算グラフの複雑さの観点から、操作可能な既知のグラフのサンプル複雑性を解析する。
さらに,対象エージェントの未知操作能力の下での学習研究を初期化する。
伝達学習理論の手法を用いて,操作グラフの類似度尺度を定義し,操作グラフの小さな変化に対して学習結果が頑健であることを示す。
最後に,類似度尺度に対するエージェントの操作能力の学習(サンプルの複雑さ)を分析し,未知操作グラフに対する戦略的分類の新たな保証を提供する。
関連論文リスト
- Strategic Littlestone Dimension: Improved Bounds on Online Strategic Classification [22.031509365704423]
戦略エージェントが観測可能な特徴を修正して肯定的な分類を受けられるような設定において、オンライン二項分類の問題について検討する。
我々は,仮説クラスと操作グラフの結合複雑性をキャプチャする新しい尺度である,ストラテジック・リトルストーン次元を導入する。
我々は、すべてのエージェントがグラフファミリ内の同じグラフで操作する実現可能な設定と、操作グラフが逆向きに選択され、家族内の1つのグラフで一貫したモデル化が行われない非依存的な設定の両方において、後悔すべき境界を導出する。
論文 参考訳(メタデータ) (2024-07-16T11:31:20Z) - Learnability Gaps of Strategic Classification [68.726857356532]
我々は,戦略的分類と標準学習の間にある学習可能性のギャップという,根本的な問題に対処することに注力する。
ほぼ厳密なサンプルの複雑さと後悔の限界を提供し、以前の結果よりも大幅に改善します。
この設定における我々のアルゴリズムは、独立して興味を持ち、マルチラベル学習のような他の問題にも適用できる。
論文 参考訳(メタデータ) (2024-02-29T16:09:19Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Scalable and Equitable Math Problem Solving Strategy Prediction in Big
Educational Data [2.86829428083307]
我々はMVecと呼ばれる埋め込みを開発し、学生の熟達度に基づいて表現を学習する。
次に、これらの埋め込みを非パラメトリッククラスタリング法でクラスタ化する。
提案手法は,大規模データセットの小さなサンプルをトレーニングすることで,高精度にスケールアップ可能であることを示す。
論文 参考訳(メタデータ) (2023-08-07T19:51:10Z) - Strategic Classification under Unknown Personalized Manipulation [32.710715217516025]
戦略的分類における基本的なミス境界とサンプルの複雑さについて検討する。
エージェントは、肯定的に予測するために、その特徴ベクトルをある程度戦略的に操作することができる。
論文 参考訳(メタデータ) (2023-05-25T22:07:29Z) - Strategic Representation [20.43010800051863]
戦略マシンは ユーザーを操る表現を作れます
我々はこれを学習問題として定式化し、操作に頑健な意思決定のためのアルゴリズムを追求する。
我々の主な成果は、戦略的表現に拘わらずエラーを最小限に抑える学習アルゴリズムである。
論文 参考訳(メタデータ) (2022-06-17T04:20:57Z) - Leveraging Ensembles and Self-Supervised Learning for Fully-Unsupervised
Person Re-Identification and Text Authorship Attribution [77.85461690214551]
完全ラベル付きデータからの学習は、Person Re-IdentificationやText Authorship Attributionなどのマルチメディアフォレスト問題において困難である。
近年の自己教師型学習法は,基礎となるクラスに意味的差異が有る場合に,完全ラベル付きデータを扱う際に有効であることが示されている。
本研究では,異なるクラスからのサンプルが顕著に多様性を持っていない場合でも,ラベルのないデータから学習できるようにすることにより,個人再認識とテキストオーサシップの属性に対処する戦略を提案する。
論文 参考訳(メタデータ) (2022-02-07T13:08:11Z) - A Boosting Approach to Reinforcement Learning [59.46285581748018]
複雑度が状態数に依存しない意思決定プロセスにおける強化学習のための効率的なアルゴリズムについて検討する。
このような弱い学習手法の精度を向上させることができる効率的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-08-22T16:00:45Z) - How Fine-Tuning Allows for Effective Meta-Learning [50.17896588738377]
MAMLライクなアルゴリズムから派生した表現を解析するための理論的フレームワークを提案する。
我々は,勾配降下による微調整により得られる最良予測器のリスク境界を提示し,アルゴリズムが共有構造を有効活用できることを実証する。
この分離の結果、マイニングベースのメソッド、例えばmamlは、少数ショット学習における"frozen representation"目標を持つメソッドよりも優れている。
論文 参考訳(メタデータ) (2021-05-05T17:56:00Z) - Guided Variational Autoencoder for Disentanglement Learning [79.02010588207416]
本稿では,潜在表現非絡み合い学習を行うことで,制御可能な生成モデルを学習できるアルゴリズム,Guided-VAEを提案する。
我々は、ガイド-VAEにおける教師なし戦略と教師なし戦略を設計し、バニラVAE上でのモデリングと制御能力の強化を観察する。
論文 参考訳(メタデータ) (2020-04-02T20:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。