論文の概要: Cold Start Active Learning Strategies in the Context of Imbalanced
Classification
- arxiv url: http://arxiv.org/abs/2201.10227v1
- Date: Tue, 25 Jan 2022 10:35:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 02:21:11.204443
- Title: Cold Start Active Learning Strategies in the Context of Imbalanced
Classification
- Title(参考訳): 不均衡な分類の文脈におけるコールドスタートアクティブラーニング戦略
- Authors: Etienne Brangbour and Pierrick Bruneau and Thomas Tamisier and
St\'ephane Marchand-Maillet
- Abstract要約: コールドスタートステージの解決策を提供するための,新しいアクティブラーニング戦略を提案する。
特に、我々のアクティブな学習イテレーションは、要素スコアを用いたラベルの不足と不均衡に対処します。
本手法は,少数層からのサンプルのリコールを促進することによって,クラス不均衡に効果的に対応することを示す。
- 参考スコア(独自算出の注目度): 1.86368098450854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present novel active learning strategies dedicated to providing a solution
to the cold start stage, i.e. initializing the classification of a large set of
data with no attached labels. Moreover, proposed strategies are designed to
handle an imbalanced context in which random selection is highly inefficient.
Specifically, our active learning iterations address label scarcity and
imbalance using element scores, combining information extracted from a
clustering structure to a label propagation model. The strategy is illustrated
by a case study on annotating Twitter content w.r.t. testimonies of a real
flood event. We show that our method effectively copes with class imbalance, by
boosting the recall of samples from the minority class.
- Abstract(参考訳): 本稿では,コールドスタートステージの解法,すなわちラベルを付けずに大量のデータの分類を初期化することを目的とした,新たなアクティブラーニング戦略を提案する。
さらに、ランダム選択が極めて非効率な不均衡コンテキストを扱うために、提案手法を設計する。
具体的には,クラスタリング構造から抽出した情報とラベル伝搬モデルを組み合わせた,要素スコアを用いたラベル不足と不均衡に対処する。
この戦略は、実際の洪水イベントのTwitterコンテンツw.r.t.証言に注釈をつけるケーススタディによって説明されている。
本手法は,少数層からのサンプルのリコールを促進することによって,クラス不均衡に効果的に対応することを示す。
関連論文リスト
- Robust Partial-Label Learning by Leveraging Class Activation Values [0.0]
例えば、人間のアノテータは同じインスタンスに競合するクラスラベルを割り当てる。
本稿では、ニューラルネットワークのクラスアクティベーション値の大きさを利用して、不確かさを明確に表現する主観論理に基づく新しい手法を提案する。
提案手法は,高騒音下での予測性能において,より堅牢な予測を行うことを示す。
論文 参考訳(メタデータ) (2025-02-17T12:30:05Z) - Class Balance Matters to Active Class-Incremental Learning [61.11786214164405]
まず、大規模な未ラベルデータのプールから始めて、インクリメンタルな学習のための最も情報に富んだサンプルを注釈付けします。
そこで我々は,クラスバランスと情報提供性を両立させるため,クラスバランス選択(CBS)戦略を提案する。
我々のCBSは、プリトレーニング済みモデルとプロンプトチューニング技術に基づいて、これらのCILメソッドに接続し、再生することができる。
論文 参考訳(メタデータ) (2024-12-09T16:37:27Z) - Strike a Balance in Continual Panoptic Segmentation [60.26892488010291]
既存の知識の安定性と新しい情報への適応性のバランスをとるため,過去クラスのバックトレース蒸留を導入する。
また,リプレイ用サンプルセットのクラス分布と過去のトレーニングデータとの整合性を考慮したクラス比記憶戦略を導入する。
連続パノプティカルバランス(BalConpas)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T09:58:20Z) - Combating Label Noise With A General Surrogate Model For Sample Selection [77.45468386115306]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Leveraging Ensembles and Self-Supervised Learning for Fully-Unsupervised
Person Re-Identification and Text Authorship Attribution [77.85461690214551]
完全ラベル付きデータからの学習は、Person Re-IdentificationやText Authorship Attributionなどのマルチメディアフォレスト問題において困難である。
近年の自己教師型学習法は,基礎となるクラスに意味的差異が有る場合に,完全ラベル付きデータを扱う際に有効であることが示されている。
本研究では,異なるクラスからのサンプルが顕著に多様性を持っていない場合でも,ラベルのないデータから学習できるようにすることにより,個人再認識とテキストオーサシップの属性に対処する戦略を提案する。
論文 参考訳(メタデータ) (2022-02-07T13:08:11Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Cold-start Active Learning through Self-supervised Language Modeling [15.551710499866239]
アクティブラーニングは、ラベルに最も重要な例を選択することで、アノテーションのコストを削減することを目的としている。
BERTでは、マスク付き言語モデリング損失に基づく単純な戦略を開発する。
他のベースラインと比較して,本手法はより少ないサンプリングイテレーションと時間で精度が高い。
論文 参考訳(メタデータ) (2020-10-19T14:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。