論文の概要: Learnability Gaps of Strategic Classification
- arxiv url: http://arxiv.org/abs/2402.19303v1
- Date: Thu, 29 Feb 2024 16:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 14:07:17.501815
- Title: Learnability Gaps of Strategic Classification
- Title(参考訳): 戦略分類の学習可能性ギャップ
- Authors: Lee Cohen, Yishay Mansour, Shay Moran, Han Shao
- Abstract要約: 我々は,戦略的分類と標準学習の間にある学習可能性のギャップという,根本的な問題に対処することに注力する。
ほぼ厳密なサンプルの複雑さと後悔の限界を提供し、以前の結果よりも大幅に改善します。
この設定における我々のアルゴリズムは、独立して興味を持ち、マルチラベル学習のような他の問題にも適用できる。
- 参考スコア(独自算出の注目度): 68.726857356532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In contrast with standard classification tasks, strategic classification
involves agents strategically modifying their features in an effort to receive
favorable predictions. For instance, given a classifier determining loan
approval based on credit scores, applicants may open or close their credit
cards to fool the classifier. The learning goal is to find a classifier robust
against strategic manipulations. Various settings, based on what and when
information is known, have been explored in strategic classification. In this
work, we focus on addressing a fundamental question: the learnability gaps
between strategic classification and standard learning.
We essentially show that any learnable class is also strategically learnable:
we first consider a fully informative setting, where the manipulation structure
(which is modeled by a manipulation graph $G^\star$) is known and during
training time the learner has access to both the pre-manipulation data and
post-manipulation data. We provide nearly tight sample complexity and regret
bounds, offering significant improvements over prior results. Then, we relax
the fully informative setting by introducing two natural types of uncertainty.
First, following Ahmadi et al. (2023), we consider the setting in which the
learner only has access to the post-manipulation data. We improve the results
of Ahmadi et al. (2023) and close the gap between mistake upper bound and lower
bound raised by them. Our second relaxation of the fully informative setting
introduces uncertainty to the manipulation structure. That is, we assume that
the manipulation graph is unknown but belongs to a known class of graphs. We
provide nearly tight bounds on the learning complexity in various unknown
manipulation graph settings. Notably, our algorithm in this setting is of
independent interest and can be applied to other problems such as multi-label
learning.
- Abstract(参考訳): 標準的な分類タスクとは対照的に、戦略的分類には、適切な予測を受けるために、その特徴を戦略的に修正するエージェントが含まれる。
例えば、信用スコアに基づいてローン承認を決定する分類器が与えられた場合、申請者はクレジットカードを開設または閉鎖してその分類器を騙すことができる。
学習目標は、戦略的な操作に対して堅牢な分類器を見つけることである。
戦略分類において、情報が何といつを知るかに基づく様々な設定が検討されている。
本研究は,戦略的分類と標準学習の学習可能性ギャップという,基本的な問題に対処することに焦点を当てる。
まず、操作構造(操作グラフ $g^\star$ でモデル化される)が知られており、トレーニング中、学習者は事前操作データと後操作データの両方にアクセスすることができる。
ほぼ厳密なサンプルの複雑さと後悔の限界を提供し、以前の結果よりも大幅に改善します。
そして、2つの自然な不確実性を導入することで、完全な情報的設定を緩和する。
まず,Ahmadi et al. (2023)に従って,学習者が操作後データにのみアクセス可能な設定を検討する。
我々は,ahmadi et al. (2023)の結果を改善し,それらによって引き起こされた誤りの上界と下界の間のギャップを閉じる。
完全な情報的設定の2つ目の緩和は、操作構造に不確実性をもたらす。
すなわち、操作グラフは未知であるが、既知のグラフのクラスに属すると仮定する。
様々な未知操作グラフの設定において、学習の複雑さについてほぼ厳密な境界を提供する。
この設定における我々のアルゴリズムは独立した興味を持ち、マルチラベル学習などの他の問題に適用できる。
関連論文リスト
- Strategic Littlestone Dimension: Improved Bounds on Online Strategic Classification [22.031509365704423]
戦略エージェントが観測可能な特徴を修正して肯定的な分類を受けられるような設定において、オンライン二項分類の問題について検討する。
我々は,仮説クラスと操作グラフの結合複雑性をキャプチャする新しい尺度である,ストラテジック・リトルストーン次元を導入する。
我々は、すべてのエージェントがグラフファミリ内の同じグラフで操作する実現可能な設定と、操作グラフが逆向きに選択され、家族内の1つのグラフで一貫したモデル化が行われない非依存的な設定の両方において、後悔すべき境界を導出する。
論文 参考訳(メタデータ) (2024-07-16T11:31:20Z) - Bayesian Strategic Classification [11.439576371711711]
戦略分類における学習者による部分的情報公開の研究について検討する。
エージェントの操作能力を高めつつも,そのような部分的な情報公開が学習者の正確さにどのように寄与するかを示す。
論文 参考訳(メタデータ) (2024-02-13T19:51:49Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Strategic Representation [20.43010800051863]
戦略マシンは ユーザーを操る表現を作れます
我々はこれを学習問題として定式化し、操作に頑健な意思決定のためのアルゴリズムを追求する。
我々の主な成果は、戦略的表現に拘わらずエラーを最小限に抑える学習アルゴリズムである。
論文 参考訳(メタデータ) (2022-06-17T04:20:57Z) - Learning Losses for Strategic Classification [5.812499828391904]
私たちは、よい決定ルールを学ぶのに必要な、サンプルの複雑さに焦点をあてて、学習理論的な視点を取ります。
我々は、関数クラスと演算グラフの複雑さの観点から、操作可能な既知のグラフのサンプル複雑性を解析する。
移動学習理論の手法を用いて、グラフを操作するための類似度尺度を定義し、その操作グラフの小さな変化に対して学習結果が堅牢であることを示す。
論文 参考訳(メタデータ) (2022-03-25T02:26:16Z) - Knowledge-driven Active Learning [70.37119719069499]
アクティブな学習戦略は、ディープラーニングモデルをトレーニングするために必要なラベル付きデータの量を最小限にすることを目的としている。
ほとんどの積極的な戦略は不確実なサンプルの選択に基づいており、しばしば決定境界に近いサンプルに制限される。
本稿では、一般的なドメイン知識を考慮し、エキスパートでないユーザがより少ないサンプルでモデルを訓練できるようにする。
論文 参考訳(メタデータ) (2021-10-15T06:11:53Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot
Learning [76.98364915566292]
一般的なプラクティスは、まずベースセット上でモデルをトレーニングし、その後、微調整によって新しいクラスに移行することである。
本稿では,基本モデル内の特定の層を凍結あるいは微調整することにより,部分的知識の伝達を提案する。
提案手法の有効性を実証するために, CUB と mini-ImageNet の広範な実験を行った。
論文 参考訳(メタデータ) (2021-02-08T03:27:05Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。