論文の概要: Nuances in Margin Conditions Determine Gains in Active Learning
- arxiv url: http://arxiv.org/abs/2110.08418v1
- Date: Sat, 16 Oct 2021 00:17:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 14:11:38.746896
- Title: Nuances in Margin Conditions Determine Gains in Active Learning
- Title(参考訳): 積極的学習におけるマージン条件の違いによる利得決定
- Authors: Samory Kpotufe, Gan Yuan, Yunfan Zhao
- Abstract要約: 本研究は,アクティブ学習者が受動的学習率を上回ることができるかどうかを,マージンという概念の曖昧なニュアンスによって決定することを示す。
本研究の結果は,非パラメトリック環境での受動率よりも能動率が向上すべきという過去の文献からの通常の直観を否定するものである。
- 参考スコア(独自算出の注目度): 10.409652277630132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider nonparametric classification with smooth regression functions,
where it is well known that notions of margin in $E[Y|X]$ determine fast or
slow rates in both active and passive learning. Here we elucidate a striking
distinction between the two settings. Namely, we show that some seemingly
benign nuances in notions of margin -- involving the uniqueness of the Bayes
classifier, and which have no apparent effect on rates in passive learning --
determine whether or not any active learner can outperform passive learning
rates. In particular, for Audibert-Tsybakov's margin condition (allowing
general situations with non-unique Bayes classifiers), no active learner can
gain over passive learning in commonly studied settings where the marginal on
$X$ is near uniform. Our results thus negate the usual intuition from past
literature that active rates should improve over passive rates in nonparametric
settings.
- Abstract(参考訳): 滑らかな回帰関数を持つ非パラメトリック分類を考えると、$E[Y|X]$におけるマージンの概念が能動学習と受動学習の両方において高速または遅い速度を決定することはよく知られている。
ここでは2つの設定を著しく区別する。
すなわち,ベイズ分類器の独自性,受動的学習の速度に明らかな影響を与えないマージン概念の良質なニュアンスが,アクティブ学習者が受動的学習率を上回ることができるかどうかを判断する。
特に Audibert-Tsybakov のマージン条件(非一般ベイズ分類器の一般的な状況が許容される)では、X$ のマージンが均一に近い一般的な研究環境では、アクティブな学習者は受動的学習に勝ることができない。
その結果,非パラメトリック設定の受動率よりもアクティブ率の方が向上する,という過去の文献からの通常の直観は否定された。
関連論文リスト
- BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Uncertainty in Graph Contrastive Learning with Bayesian Neural Networks [101.56637264703058]
変分ベイズニューラルネットワークは不確実性推定を改善するために有効であることを示す。
比較学習における不確実性の新たな尺度を提案するが、これは異なる正のサンプルによる可能性の相違に基づくものである。
論文 参考訳(メタデータ) (2023-11-30T22:32:24Z) - ACTOR: Active Learning with Annotator-specific Classification Heads to
Embrace Human Label Variation [35.10805667891489]
積極的学習は、アノテーションのコスト削減戦略として、不一致から学ぶという文脈で完全には研究されていない。
アクティブな学習環境では、不確実性推定の観点から、マルチヘッドモデルの方がシングルヘッドモデルよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-10-23T14:26:43Z) - Shrinking Class Space for Enhanced Certainty in Semi-Supervised Learning [59.44422468242455]
そこで我々はShrinkMatchと呼ばれる新しい手法を提案し、不確実なサンプルを学習する。
それぞれの不確実なサンプルに対して、元の Top-1 クラスを単に含むスランク類空間を適応的に求める。
次に、スランク空間における強と弱に強化された2つのサンプル間の整合正則化を課し、識別的表現を試みます。
論文 参考訳(メタデータ) (2023-08-13T14:05:24Z) - Margin-based sampling in high dimensions: When being active is less
efficient than staying passive [76.71565772067113]
最近の経験的証拠は、辺縁に基づくアクティブラーニングが受動的ラーニングよりもさらに悪い結果をもたらす可能性があることを示唆している。
雑音のないデータであっても、PLが利得ベースALより優れていることがロジスティック回帰の証明である。
以上の結果から, この高次元現象は, クラス間の分離が小さい場合に悪化することが示唆された。
論文 参考訳(メタデータ) (2022-12-01T18:55:59Z) - Factors of Influence of the Overestimation Bias of Q-Learning [0.7614628596146599]
学習率$alpha$,割引係数$gamma$,報奨信号$r$が,Q-Learningアルゴリズムの過大評価バイアスに与える影響について検討した。
以上の結果から,これら3つのパラメータが過大評価に大きく影響していることが示唆された。
論文 参考訳(メタデータ) (2022-10-11T08:46:05Z) - Efficient Active Learning with Abstention [12.315392649501101]
計算効率のよい能動学習アルゴリズムを開発した。
このアルゴリズムの重要な特徴は、アクティブな学習でしばしば見られる望ましくない「ノイズ探索」行動を避けることである。
論文 参考訳(メタデータ) (2022-03-31T18:34:57Z) - Convergence of Uncertainty Sampling for Active Learning [11.115182142203711]
複数のクラスに拡張する二項分類のための効率的な不確実性推定器を提案する。
我々は,二項分類と多項分類のタスクにおいて,雑音の影響下でのアルゴリズムの理論的保証を提供する。
論文 参考訳(メタデータ) (2021-10-29T13:51:30Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Negative Margin Matters: Understanding Margin in Few-shot Classification [72.85978953262004]
本稿では,メトリクス学習に基づく数ショット学習手法に負のマージン損失を導入する。
負のマージンの損失は、通常のソフトマックスの損失と、3つの標準的な数ショット分類ベンチマークにおける最先端の精度を著しく上回る。
論文 参考訳(メタデータ) (2020-03-26T17:59:05Z) - K-NN active learning under local smoothness assumption [1.0152838128195467]
我々は受動的学習よりも収束率の高い能動的学習アルゴリズムを設計する。
従来のアクティブな学習アルゴリズムとは異なり、インスタンス空間の限界分布に依存する滑らかな仮定を用いる。
論文 参考訳(メタデータ) (2020-01-17T10:44:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。