論文の概要: Contextual Diversity for Active Learning
- arxiv url: http://arxiv.org/abs/2008.05723v1
- Date: Thu, 13 Aug 2020 07:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 23:23:07.744894
- Title: Contextual Diversity for Active Learning
- Title(参考訳): アクティブラーニングにおける文脈多様性
- Authors: Sharat Agarwal and Himanshu Arora and Saket Anand and Chetan Arora
- Abstract要約: 大規模なデータセットは、多くの実用化のためにディープ畳み込みニューラルネットワーク(CNN)の使用を制限する。
空間的に共起するクラスに関連した混乱を捉える文脈的多様性の概念を導入する。
本研究は,活発な学習に文脈的多様性を用いることの利点を明らかにした。
- 参考スコア(独自算出の注目度): 9.546771465714876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Requirement of large annotated datasets restrict the use of deep
convolutional neural networks (CNNs) for many practical applications. The
problem can be mitigated by using active learning (AL) techniques which, under
a given annotation budget, allow to select a subset of data that yields maximum
accuracy upon fine tuning. State of the art AL approaches typically rely on
measures of visual diversity or prediction uncertainty, which are unable to
effectively capture the variations in spatial context. On the other hand,
modern CNN architectures make heavy use of spatial context for achieving highly
accurate predictions. Since the context is difficult to evaluate in the absence
of ground-truth labels, we introduce the notion of contextual diversity that
captures the confusion associated with spatially co-occurring classes.
Contextual Diversity (CD) hinges on a crucial observation that the probability
vector predicted by a CNN for a region of interest typically contains
information from a larger receptive field. Exploiting this observation, we use
the proposed CD measure within two AL frameworks: (1) a core-set based strategy
and (2) a reinforcement learning based policy, for active frame selection. Our
extensive empirical evaluation establish state of the art results for active
learning on benchmark datasets of Semantic Segmentation, Object Detection and
Image Classification. Our ablation studies show clear advantages of using
contextual diversity for active learning. The source code and additional
results are available at https://github.com/sharat29ag/CDAL.
- Abstract(参考訳): 大規模なアノテートデータセットの必要性は、多くの実用的な用途において深層畳み込みニューラルネットワーク(CNN)の使用を制限する。
この問題は、与えられたアノテーション予算の下で、微調整時に最大精度が得られるデータのサブセットを選択できるアクティブラーニング(al)技術を使用することで解決できる。
最先端のアル・アプローチは通常、空間的文脈の変化を効果的に捉えることができない視覚的多様性や予測の不確かさの尺度に依存する。
一方、現代のCNNアーキテクチャでは、高精度な予測を実現するために空間コンテキストを多用している。
接地ラベルがない場合の文脈評価は困難であるため,空間的共起クラスに関連する混乱を捉えた文脈多様性の概念を導入する。
文脈多様性(CD)は、CNNが関心のある領域に対して予測する確率ベクトルが一般により大きな受容場からの情報を含んでいるという決定的な観察に基づいている。
この知見を活かし,(1)コアセット戦略と(2)強化学習に基づく方針の2つのalフレームワークで提案するcd尺度を用いてフレーム選択を行った。
セマンティクスセグメンテーション,オブジェクト検出,画像分類といったベンチマークデータセット上でのアクティブラーニングのための技術結果の確立に関する広範な実証的評価を行った。
本研究は,アクティベーション・ラーニングにおける文脈多様性の利点を明らかにした。
ソースコードと追加結果はhttps://github.com/sharat29ag/cdalで入手できる。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Contextrast: Contextual Contrastive Learning for Semantic Segmentation [9.051352746190448]
コントラスト学習に基づくセマンティックセグメンテーション手法であるContextrastを提案する。
提案手法は,文脈コントラスト学習 (CCL) と境界認識型負サンプリング (B) の2つの部分からなる。
我々のContextrastはセマンティックセグメンテーションネットワークの性能を大幅に向上させることを示した。
論文 参考訳(メタデータ) (2024-04-16T15:04:55Z) - Supervised Gradual Machine Learning for Aspect Category Detection [0.9857683394266679]
アスペクトカテゴリー検出(ACD)は、あるレビュー文の中で暗黙的かつ明示的な側面を識別することを目的としている。
本稿では,Deep Neural Networks (DNN) と Gradual Machine Learning (GML) を教師付き環境で組み合わせることで,ACDタスクに取り組む新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T07:21:46Z) - Improving Deep Representation Learning via Auxiliary Learnable Target Coding [69.79343510578877]
本稿では,深層表現学習の補助的正規化として,新たな学習対象符号化を提案する。
具体的には、より差別的な表現を促進するために、マージンベースの三重項損失と、提案した目標符号上の相関整合損失を設計する。
論文 参考訳(メタデータ) (2023-05-30T01:38:54Z) - Nearest Neighbor-Based Contrastive Learning for Hyperspectral and LiDAR
Data Classification [45.026868970899514]
本稿では,Nearest Neighbor-based Contrastive Learning Network (NNCNet)を提案する。
具体的には,近隣地域間のセマンティック関係を強化した近傍データ拡張手法を提案する。
さらに,HSIデータとLiDARデータ間の2次・高次特徴相互作用を生かしたバイリニアアテンションモジュールを設計する。
論文 参考訳(メタデータ) (2023-01-09T13:43:54Z) - Contextual information integration for stance detection via
cross-attention [59.662413798388485]
スタンス検出は、著者の目標に対する姿勢を特定することを扱う。
既存のスタンス検出モデルの多くは、関連するコンテキスト情報を考慮していないため、制限されている。
文脈情報をテキストとして統合する手法を提案する。
論文 参考訳(メタデータ) (2022-11-03T15:04:29Z) - Voxel-wise Adversarial Semi-supervised Learning for Medical Image
Segmentation [4.489713477369384]
医用画像セグメンテーションのための新しい対向学習に基づく半教師付きセグメンテーション手法を提案する。
本手法では,複数の階層から局所的特徴とグローバルな特徴を埋め込んで,複数のクラス間のコンテキスト関係を学習する。
左心房(シングルクラス)とマルチオーガニックデータセット(マルチクラス)のイメージセグメンテーションにおける、最先端の半教師あり学習手法よりも優れています。
論文 参考訳(メタデータ) (2022-05-14T06:57:19Z) - Dominant Set-based Active Learning for Text Classification and its
Application to Online Social Media [0.0]
本稿では,最小限のアノテーションコストで大規模未ラベルコーパスのトレーニングを行うための,プールベースのアクティブラーニング手法を提案する。
提案手法には調整すべきパラメータが一切ないため,データセットに依存しない。
本手法は,最先端のアクティブラーニング戦略と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2022-01-28T19:19:03Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Context Decoupling Augmentation for Weakly Supervised Semantic
Segmentation [53.49821324597837]
微調整されたセマンティックセグメンテーションは、近年深く研究されている困難な問題です。
本稿では、オブジェクトが現れる固有のコンテキストを変更する Context Decoupling Augmentation (CDA) メソッドを紹介します。
提案手法の有効性を検証するため, PASCAL VOC 2012データセットにいくつかの代替ネットワークアーキテクチャを用いた広範な実験を行い, CDAが様々なWSSS手法を新たな最先端技術に拡張できることを実証した。
論文 参考訳(メタデータ) (2021-03-02T15:05:09Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。