論文の概要: Stopping criterion for active learning based on deterministic
generalization bounds
- arxiv url: http://arxiv.org/abs/2005.07402v1
- Date: Fri, 15 May 2020 08:15:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 22:33:32.275589
- Title: Stopping criterion for active learning based on deterministic
generalization bounds
- Title(参考訳): 決定論的一般化境界に基づくアクティブラーニングの停止基準
- Authors: Hideaki Ishibashi and Hideitsu Hino
- Abstract要約: 本稿では,アクティブな学習を自動的に停止するための基準を提案する。
提案した停止基準は、期待される一般化誤差と仮説テストの違いに基づいている。
人工データセットと実データの両方を用いた実験により,提案手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 4.518012967046983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning is a framework in which the learning machine can select the
samples to be used for training. This technique is promising, particularly when
the cost of data acquisition and labeling is high. In active learning,
determining the timing at which learning should be stopped is a critical issue.
In this study, we propose a criterion for automatically stopping active
learning. The proposed stopping criterion is based on the difference in the
expected generalization errors and hypothesis testing. We derive a novel upper
bound for the difference in expected generalization errors before and after
obtaining a new training datum based on PAC-Bayesian theory. Unlike ordinary
PAC-Bayesian bounds, though, the proposed bound is deterministic; hence, there
is no uncontrollable trade-off between the confidence and tightness of the
inequality. We combine the upper bound with a statistical test to derive a
stopping criterion for active learning. We demonstrate the effectiveness of the
proposed method via experiments with both artificial and real datasets.
- Abstract(参考訳): アクティブラーニング(active learning)は、学習マシンがトレーニングに使用するサンプルを選択できるフレームワークである。
この技術は、特にデータ取得とラベル付けのコストが高い場合に有望である。
アクティブな学習では、学習を止めるタイミングを決定することが重要な問題である。
本研究では,アクティブラーニングを自動停止する基準を提案する。
提案する停止基準は, 期待一般化誤差と仮説検定の違いに基づいている。
PAC-Bayesian理論に基づく新たなトレーニングダタムの獲得前後の予測一般化誤差の差に対する新たな上限を導出する。
しかし、通常のPAC-ベイズ境界とは異なり、提案された境界は決定論的であり、したがって不等式の信頼性と厳密性の間には制御不能なトレードオフはない。
我々は,上界と統計的テストを組み合わせることで,アクティブラーニングの停止基準を導出する。
人工データセットと実データの両方を用いた実験により,提案手法の有効性を実証する。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Large Class Separation is not what you need for Relational
Reasoning-based OOD Detection [12.578844450586]
Out-Of-Distribution (OOD) 検出法はセマンティックノベルティを識別して解を提供する。
これらの手法の多くは、既知のデータの学習段階を利用しており、これは正規性の概念を捉えるためのモデル(または微調整)を訓練することを意味する。
実行可能な代替手段は、大きな事前訓練されたモデルによって生成された埋め込み空間の類似性を評価することであり、それ以上の学習は行わない。
論文 参考訳(メタデータ) (2023-07-12T14:10:15Z) - Active Learning in the Predict-then-Optimize Framework: A Margin-Based
Approach [5.371816551086118]
本研究では,ラベルのないデータストリームから特徴サンプルのラベルを要求するかどうかを逐次決定する学習手法を開発した。
我々の能動学習法は,予測パラメータによって引き起こされる決定誤差によって直接情報を得る最初の方法である。
論文 参考訳(メタデータ) (2023-05-11T05:44:36Z) - Learnability, Sample Complexity, and Hypothesis Class Complexity for
Regression Models [10.66048003460524]
この研究はPACの基礎に触発され、既存の回帰学習問題に動機付けられている。
提案手法はEpsilon-Confidence Aough Correct (epsilon CoAC)で示され、Kullback Leibler divergence(相対エントロピー)を利用する。
これにより、学習者は異なる複雑性順序の仮説クラスを比較でき、それらの中から最小のエプシロンを最適に選択できる。
論文 参考訳(メタデータ) (2023-03-28T15:59:12Z) - Learning versus Refutation in Noninteractive Local Differential Privacy [133.80204506727526]
非対話的局所差分プライバシー(LDP)における2つの基本的な統計課題について検討する。
本研究の主な成果は,非対話型LDPプロトコルにおけるPAC学習の複雑さの完全な評価である。
論文 参考訳(メタデータ) (2022-10-26T03:19:24Z) - Knowledge-driven Active Learning [70.37119719069499]
アクティブな学習戦略は、ディープラーニングモデルをトレーニングするために必要なラベル付きデータの量を最小限にすることを目的としている。
ほとんどの積極的な戦略は不確実なサンプルの選択に基づいており、しばしば決定境界に近いサンプルに制限される。
本稿では、一般的なドメイン知識を考慮し、エキスパートでないユーザがより少ないサンプルでモデルを訓練できるようにする。
論文 参考訳(メタデータ) (2021-10-15T06:11:53Z) - Hitting the Target: Stopping Active Learning at the Cost-Based Optimum [1.1756822700775666]
アクティブな学習は、従来の完全教師付き学習と同じようなパフォーマンスを維持しながら、ラベルの少ない機械学習モデルをトレーニングすることを可能にする。
本論文は,実世界のシナリオで使用する基準の停止について,実践者に対して実行可能なアドバイスを初めて行ったものである。
本研究は, 停止基準の大規模比較として, 精度・ラベルトレードオフの定量化のためのコスト尺度, 評価したすべての停止基準の公開実装, 停止基準の評価のためのオープンソースフレームワークを用いた。
論文 参考訳(メタデータ) (2021-10-07T21:33:34Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z) - Positive-Unlabeled Classification under Class-Prior Shift: A
Prior-invariant Approach Based on Density Ratio Estimation [85.75352990739154]
密度比推定に基づく新しいPU分類法を提案する。
提案手法の顕著な利点は、訓練段階においてクラスプライヤを必要としないことである。
論文 参考訳(メタデータ) (2021-07-11T13:36:53Z) - Stopping Criterion for Active Learning Based on Error Stability [3.2996723916635267]
新しいサンプルを追加する際の一般化誤差の変化がアノテーションコストに縛られることを保証し、エラー安定性に基づく停止基準を提案する。
提案手法は,様々な学習モデルと実際のデータセットの適切なタイミングでアクティブラーニングを停止する。
論文 参考訳(メタデータ) (2021-04-05T10:15:50Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。