論文の概要: Deep Active Learning with Augmentation-based Consistency Estimation
- arxiv url: http://arxiv.org/abs/2011.02666v1
- Date: Thu, 5 Nov 2020 05:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 12:07:02.028296
- Title: Deep Active Learning with Augmentation-based Consistency Estimation
- Title(参考訳): Augmentation-based Consistency Estimation を用いた深層能動学習
- Authors: SeulGi Hong, Heonjin Ha, Junmo Kim, Min-Kook Choi
- Abstract要約: 本稿では,データ拡張に基づく手法をアクティブな学習シナリオに適用することにより,一般化能力を向上させる手法を提案する。
データの増大に基づく正規化損失については,カットアウト(co)とカットミックス(cm)の戦略を定量的指標として再定義した。
強化型正規化器は,能動学習の訓練段階における性能向上につながる可能性が示唆された。
- 参考スコア(独自算出の注目度): 23.492616938184092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In active learning, the focus is mainly on the selection strategy of
unlabeled data for enhancing the generalization capability of the next learning
cycle. For this, various uncertainty measurement methods have been proposed. On
the other hand, with the advent of data augmentation metrics as the regularizer
on general deep learning, we notice that there can be a mutual influence
between the method of unlabeled data selection and the data augmentation-based
regularization techniques in active learning scenarios. Through various
experiments, we confirmed that consistency-based regularization from analytical
learning theory could affect the generalization capability of the classifier in
combination with the existing uncertainty measurement method. By this fact, we
propose a methodology to improve generalization ability, by applying data
augmentation-based techniques to an active learning scenario. For the data
augmentation-based regularization loss, we redefined cutout (co) and cutmix
(cm) strategies as quantitative metrics and applied at both model training and
unlabeled data selection steps. We have shown that the augmentation-based
regularizer can lead to improved performance on the training step of active
learning, while that same approach can be effectively combined with the
uncertainty measurement metrics proposed so far. We used datasets such as
FashionMNIST, CIFAR10, CIFAR100, and STL10 to verify the performance of the
proposed active learning technique for multiple image classification tasks. Our
experiments show consistent performance gains for each dataset and budget
scenario.
- Abstract(参考訳): アクティブラーニングでは,次の学習サイクルの一般化能力を高めるためのラベルなしデータの選択戦略に重点が置かれている。
このため,様々な不確かさの測定方法が提案されている。
一方、一般深層学習における正規化要因としてデータ拡張メトリクスが出現すると、アクティブな学習シナリオにおいて、ラベルなしデータ選択法とデータ拡張に基づく正規化技術との間に相互に影響があることに気づく。
解析学習理論からの整合性に基づく正規化が,既存の不確実性測定法と組み合わせて分類器の一般化能力に影響を及ぼすことを確認した。
本研究では,データ拡張に基づく手法をアクティブな学習シナリオに適用することにより,一般化能力を向上させる手法を提案する。
データ拡張ベースの正規化損失に対して、カットアウト(co)とカットミックス(cm)戦略を定量的指標として再定義し、モデルトレーニングとラベルなしデータ選択ステップの両方に適用した。
強化型正規化器はアクティブラーニングのトレーニングステップにおけるパフォーマンス向上に寄与すると同時に,従来提案してきた不確実性測定指標と効果的に組み合わせることが可能である。
fashionmnist, cifar10, cifar100, stl10などのデータセットを用いて,複数の画像分類タスクにおけるアクティブラーニング手法の性能検証を行った。
実験では、データセットと予算シナリオ毎に一貫したパフォーマンス向上を示す。
関連論文リスト
- Bridging Diversity and Uncertainty in Active learning with
Self-Supervised Pre-Training [23.573986817769025]
本研究は,能動学習における多様性に基づく,不確実性に基づくサンプリング戦略の統合について論じる。
我々は,コールドスタート問題を軽減し,さまざまなデータレベルの強いパフォーマンスを維持しつつ,TCMという単純な手法を導入する。
論文 参考訳(メタデータ) (2024-03-06T14:18:24Z) - BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - Dataset Condensation with Contrastive Signals [41.195453119305746]
勾配マッチングに基づくデータセット合成(DC)手法は、データ効率の学習タスクに適用した場合、最先端のパフォーマンスを達成することができる。
本研究では,既存のDC手法が,タスク関連情報がトレーニングデータセットの重要な部分を形成する場合に,ランダム選択法よりも性能が劣ることを示す。
本稿では,クラス間の差異を効果的に捉えるために,損失関数を変更することで,コントラスト信号(DCC)を用いたデータセット凝縮を提案する。
論文 参考訳(メタデータ) (2022-02-07T03:05:32Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - Generalization of Reinforcement Learning with Policy-Aware Adversarial
Data Augmentation [32.70482982044965]
本稿では,自動生成軌道データによる標準方針学習手法の強化を目的とした,新たなポリシー対応逆データ拡張手法を提案する。
提案手法の一般化性能を検討するために, 多数のRLタスクについて実験を行った。
その結果,本手法は訓練の多様性に限界があり,最先端の一般化テスト性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2021-06-29T17:21:59Z) - On Data Efficiency of Meta-learning [17.739215706060605]
私たちは、現代のメタ学習アルゴリズムの見落とされがちな側面、すなわちそのデータ効率を研究します。
本稿では,メタラーニング手法を評価するための新しいシンプルなフレームワークを提案する。
本稿では,アクティブなデータ選択を学習学習に取り入れたアクティブなメタラーニングを提案する。
論文 参考訳(メタデータ) (2021-01-30T01:44:12Z) - Ask-n-Learn: Active Learning via Reliable Gradient Representations for
Image Classification [29.43017692274488]
深い予測モデルは、ラベル付きトレーニングデータという形で人間の監督に依存する。
Ask-n-Learnは,各アルゴリズムで推定されたペスドラベルを用いて得られる勾配埋め込みに基づく能動的学習手法である。
論文 参考訳(メタデータ) (2020-09-30T05:19:56Z) - Automatic Data Augmentation via Deep Reinforcement Learning for
Effective Kidney Tumor Segmentation [57.78765460295249]
医用画像セグメンテーションのための新しい学習ベースデータ拡張法を開発した。
本手法では,データ拡張モジュールと後続のセグメンテーションモジュールをエンドツーエンドのトレーニング方法で一貫した損失と,革新的に組み合わせる。
提案法の有効性を検証したCT腎腫瘍分節法について,本法を広範囲に評価した。
論文 参考訳(メタデータ) (2020-02-22T14:10:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。