論文の概要: Training Ensembles with Inliers and Outliers for Semi-supervised Active
Learning
- arxiv url: http://arxiv.org/abs/2307.03741v1
- Date: Fri, 7 Jul 2023 17:50:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 11:42:17.305343
- Title: Training Ensembles with Inliers and Outliers for Semi-supervised Active
Learning
- Title(参考訳): セミ教師付きアクティブラーニングのためのインレーヤとアウトレーヤによる学習アンサンブル
- Authors: Vladan Stojni\'c, Zakaria Laskar, Giorgos Tolias
- Abstract要約: 本研究では,3つの高相乗的成分を利用する手法を提案する。
インレーヤとアウトレーヤとのジョイントトレーニング、擬似ラベルによる半教師付き学習、モデルアンサンブルが使用される。
注目すべきは、その単純さにもかかわらず、提案手法はパフォーマンスという点で他の方法よりも優れています。
- 参考スコア(独自算出の注目度): 16.204251285425478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep active learning in the presence of outlier examples poses a realistic
yet challenging scenario. Acquiring unlabeled data for annotation requires a
delicate balance between avoiding outliers to conserve the annotation budget
and prioritizing useful inlier examples for effective training. In this work,
we present an approach that leverages three highly synergistic components,
which are identified as key ingredients: joint classifier training with inliers
and outliers, semi-supervised learning through pseudo-labeling, and model
ensembling. Our work demonstrates that ensembling significantly enhances the
accuracy of pseudo-labeling and improves the quality of data acquisition. By
enabling semi-supervision through the joint training process, where outliers
are properly handled, we observe a substantial boost in classifier accuracy
through the use of all available unlabeled examples. Notably, we reveal that
the integration of joint training renders explicit outlier detection
unnecessary; a conventional component for acquisition in prior work. The three
key components align seamlessly with numerous existing approaches. Through
empirical evaluations, we showcase that their combined use leads to a
performance increase. Remarkably, despite its simplicity, our proposed approach
outperforms all other methods in terms of performance. Code:
https://github.com/vladan-stojnic/active-outliers
- Abstract(参考訳): 異常な例の存在下での深いアクティブ学習は、現実的だが挑戦的なシナリオである。
アノテーションのためのラベルのないデータを取得するには、アノテーション予算を保存するために外れ値を避けることと、効果的なトレーニングのために有用な外れ値の例を優先する、微妙なバランスが必要です。
本研究は,3つの高度に相乗的成分を有効活用する手法を提案する。これは,異常値と外れ値との合同分類訓練,疑似ラベルによる半教師付き学習,モデルセンスリングである。
本研究は,アンサンブルが擬似ラベルの精度を大幅に向上し,データ取得の質を向上させることを示す。
異常値が適切に処理されるジョイントトレーニングプロセスを通じて半スーパービジョンを可能にすることにより,利用可能なラベルなし例をすべて使用することにより,分類精度の大幅な向上を観測する。
特に,ジョイントトレーニングの統合は,事前作業における従来的な獲得のためのコンポーネントである明示的なアウトリーチ検出を不要にすることを明らかにする。
3つの重要なコンポーネントは、多くの既存のアプローチとシームレスに一致します。
経験的評価を通じて,それらの組み合わせが性能向上につながることを示す。
驚くべきことに、その単純さにもかかわらず、提案手法は他のすべてのメソッドよりもパフォーマンスが優れている。
コード: https://github.com/vladan-stojnic/active-outliers
関連論文リスト
- Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Quantile-based Maximum Likelihood Training for Outlier Detection [5.902139925693801]
我々は,推定時の外乱分離を改善するために,不整合分布を学習するための量子化に基づく最大極大目標を提案する。
本手法は, 事前学習した識別特徴に正規化フローを適合させ, 評価されたログ類似度に応じて異常値を検出する。
論文 参考訳(メタデータ) (2023-08-20T22:27:54Z) - Unilaterally Aggregated Contrastive Learning with Hierarchical
Augmentation for Anomaly Detection [64.50126371767476]
階層的拡張(UniCon-HA)を用いた一方的集約型コントラスト学習を提案する。
我々は、教師付きおよび教師なしの対照的な損失を通じて、インレーヤの濃度と仮想外れ値の分散を明示的に奨励する。
本手法は,ラベルなし1クラス,ラベルなしマルチクラス,ラベル付きマルチクラスを含む3つのAD設定で評価される。
論文 参考訳(メタデータ) (2023-08-20T04:01:50Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Scaling Up Semi-supervised Learning with Unconstrained Unlabelled Data [27.75143621836449]
制約のないデータから効果的な表現を学習できる半教師付き学習フレームワークUnMixMatchを提案する。
4つの一般的なデータセットに対して広範な実験を行い、4.79%の性能向上を伴う既存の半教師付き手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-02T01:07:14Z) - Active Self-Training for Weakly Supervised 3D Scene Semantic
Segmentation [17.27850877649498]
本稿では,自己学習と能動的学習を組み合わせた3次元シーンの弱教師付きセグメンテーション手法を提案する。
提案手法は,従来の作業やベースラインよりもシーンセグメンテーションを改善する効果的な手法であることを示す。
論文 参考訳(メタデータ) (2022-09-15T06:00:25Z) - Dynamic Supervisor for Cross-dataset Object Detection [52.95818230087297]
オブジェクト検出タスクにおけるデータセット間のトレーニングは、データセットにまたがるカテゴリ内の不整合が、完全に教師付き学習を半教師付き学習に変換するため、複雑である。
本稿では,ハードラベルとソフトラベルを併用した複数更新サブモデルを用いて,アノテーションを複数回更新する動的スーパーバイザフレームワークを提案する。
最終生成アノテーションでは、ハードラベルトレーニングとソフトラベルトレーニングを統合することで、リコールと精度が大幅に向上した。
論文 参考訳(メタデータ) (2022-04-01T03:18:46Z) - Contrastive Regularization for Semi-Supervised Learning [46.020125061295886]
そこで本稿では, ラベルのないデータの特徴量により, 整合正則化の効率性と精度を両立させるために, 対照的な正則化を提案する。
また,提案手法は,ラベルなしデータに分布しないサンプルを含むオープンセット半教師付き学習において,頑健な性能を示す。
論文 参考訳(メタデータ) (2022-01-17T07:20:11Z) - Out-of-Scope Intent Detection with Self-Supervision and Discriminative
Training [20.242645823965145]
タスク指向対話システムにおいて、スコープ外インテント検出は実用上重要である。
本稿では,テストシナリオをシミュレートして,スコープ外インテント分類器をエンドツーエンドに学習する手法を提案する。
提案手法を4つのベンチマーク・ダイアログ・データセット上で広範囲に評価し,最先端のアプローチに対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-16T08:17:18Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。