論文の概要: PAC-Learning for Strategic Classification
- arxiv url: http://arxiv.org/abs/2012.03310v3
- Date: Mon, 15 Feb 2021 22:05:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 05:13:48.580727
- Title: PAC-Learning for Strategic Classification
- Title(参考訳): 戦略分類のためのPAC学習
- Authors: Ravi Sundaram, Anil Vullikanti, Haifeng Xu, Fan Yao
- Abstract要約: 本稿では、戦略的VC次元(SVC)の概念を導入し、一般戦略設定におけるPAC学習可能性の把握について述べる。
我々は,(1)SVCをピンダウンすることで線形分類器の統計的学習可能性,(2)経験的リスク最小化問題の複雑性をピンダウンすることで計算的トラクタビリティを十分に特徴付ける。
- 参考スコア(独自算出の注目度): 18.60310393343275
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The study of strategic or adversarial manipulation of testing data to fool a
classifier has attracted much recent attention. Most previous works have
focused on two extreme situations where any testing data point either is
completely adversarial or always equally prefers the positive label. In this
paper, we generalize both of these through a unified framework for strategic
classification, and introduce the notion of strategic VC-dimension (SVC) to
capture the PAC-learnability in our general strategic setup. SVC provably
generalizes the recent concept of adversarial VC-dimension (AVC) introduced by
Cullina et al. arXiv:1806.01471. We instantiate our framework for the
fundamental strategic linear classification problem. We fully characterize: (1)
the statistical learnability of linear classifiers by pinning down its SVC; (2)
its computational tractability by pinning down the complexity of the empirical
risk minimization problem. Interestingly, the SVC of linear classifiers is
always upper bounded by its standard VC-dimension. This characterization also
strictly generalizes the AVC bound for linear classifiers in arXiv:1806.01471.
- Abstract(参考訳): 分類器を騙すためのテストデータの戦略的あるいは敵対的な操作に関する研究が近年注目を集めている。
これまでのほとんどの研究は、テストデータポイントが完全に敵対的であるか、常に正のラベルを好む2つの極端な状況に焦点を当ててきた。
本稿では,これらを戦略分類のための統一的な枠組みを通じて一般化し,戦略VC次元の概念を導入し,一般戦略設定におけるPAC学習可能性を把握する。
SVCは、Cullinaらによって導入された最近の逆VC次元(AVC)の概念を確実に一般化する。
arXiv:1806.01471。
基本戦略線形分類問題に対する枠組みのインスタンス化を行う。
我々は,(1)SVCをピンダウンすることで線形分類器の統計的学習可能性,(2)経験的リスク最小化問題の複雑性をピンダウンすることで計算的トラクタビリティを十分に特徴付ける。
興味深いことに、線形分類器のSVCは常に標準VC次元によって上界となる。
この特徴づけはまた、arXiv:1806.01471 における線形分類器の AVC 境界を厳密に一般化する。
関連論文リスト
- Agnostic Smoothed Online Learning [5.167069404528051]
本稿では,$mu$の事前知識を必要とせずに,オンライン学習を円滑に行うためのサブ線形後悔を保証するアルゴリズムを提案する。
R-Coverは、次元$d$を持つ関数クラスに対して、適応的後悔$tilde O(sqrtdT/sigma)$を持つ。
論文 参考訳(メタデータ) (2024-10-07T15:25:21Z) - Computational-Statistical Gaps in Gaussian Single-Index Models [77.1473134227844]
単次元モデル(Single-Index Models)は、植木構造における高次元回帰問題である。
我々は,統計的クエリ (SQ) と低遅延多項式 (LDP) フレームワークの両方において,計算効率のよいアルゴリズムが必ずしも$Omega(dkstar/2)$サンプルを必要とすることを示した。
論文 参考訳(メタデータ) (2024-03-08T18:50:19Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Coping with Change: Learning Invariant and Minimum Sufficient
Representations for Fine-Grained Visual Categorization [26.254072665916155]
細粒度視覚分類(FGVC)は、様々な種間の類似した視覚的外観のために難しい課題である。
以前の研究では、トレーニングデータとテストデータは、同じ基礎的な分布を持ち、現代のバックボーンアーキテクチャによって抽出された特徴は差別的であり、見つからないテストデータによく当てはまると仮定されている。
我々は、FGVCにおける不変リスク最小化(IRM)と情報ボトルネック(IB)の原則を組み合わせて、不変性と最小限のIMS表現を学習する。
論文 参考訳(メタデータ) (2023-06-08T02:45:15Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - VC Theoretical Explanation of Double Descent [1.52292571922932]
本稿では、二重降下のVC-理論解析を行い、古典的なVC一般化境界によって完全に説明できることを示す。
本稿では,分析VCバウンドの分類問題に対する二重降下モデルへの応用について述べる。
論文 参考訳(メタデータ) (2022-05-31T05:50:02Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Improving Generalization Bounds for VC Classes Using the Hypergeometric
Tail Inversion [3.157455635899373]
本稿では,2つの主要なアイデアを用いて,VCクラスの一般化境界を大幅に改善する。
まず、超幾何反転尾は、VCクラスに対する非常に厳密な非一様分布独立リスク上限を得る。
第二に、ゴーストサンプルのトリックを最適化して、さらに非無視的な利得を得る。
論文 参考訳(メタデータ) (2021-10-29T19:50:34Z) - Highly Efficient Representation and Active Learning Framework for
Imbalanced Data and its Application to COVID-19 X-Ray Classification [0.7829352305480284]
胸部X線を分類するためのデータ効率の高い分類および能動的学習フレームワークを提案する。
これは(1)畳み込みニューラルネットワークの教師なし表現学習と(2)ガウス過程法に基づいている。
利用可能なラベルのトレーニングから正確性に到達するには、ラベル付きデータの10%の$simしか必要ありません。
論文 参考訳(メタデータ) (2021-02-25T02:48:59Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。