論文の概要: Class Balanced Dynamic Acquisition for Domain Adaptive Semantic
Segmentation using Active Learning
- arxiv url: http://arxiv.org/abs/2311.14146v1
- Date: Thu, 23 Nov 2023 18:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 16:41:00.554596
- Title: Class Balanced Dynamic Acquisition for Domain Adaptive Semantic
Segmentation using Active Learning
- Title(参考訳): アクティブラーニングを用いたドメイン適応意味セグメンテーションのためのクラスバランス動的獲得
- Authors: Marc Schachtsiek and Simone Rossi and Thomas Hannagan
- Abstract要約: ドメイン適応型アクティブラーニングは、ニューラルネットワークのラベル効率のトレーニングにおいて電荷を導いている。
セマンティックセグメンテーションでは、最先端のモデルでは、不確実性と多様性の2つの基準を併用してトレーニングラベルを選択する。
このような手法は、現在、より大規模なアクティブな学習予算のために、その性能を低下させるクラス不均衡の問題に悩まされている。
- 参考スコア(独自算出の注目度): 3.175227858236288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain adaptive active learning is leading the charge in label-efficient
training of neural networks. For semantic segmentation, state-of-the-art models
jointly use two criteria of uncertainty and diversity to select training
labels, combined with a pixel-wise acquisition strategy. However, we show that
such methods currently suffer from a class imbalance issue which degrades their
performance for larger active learning budgets. We then introduce Class
Balanced Dynamic Acquisition (CBDA), a novel active learning method that
mitigates this issue, especially in high-budget regimes. The more balanced
labels increase minority class performance, which in turn allows the model to
outperform the previous baseline by 0.6, 1.7, and 2.4 mIoU for budgets of 5%,
10%, and 20%, respectively. Additionally, the focus on minority classes leads
to improvements of the minimum class performance of 0.5, 2.9, and 4.6 IoU
respectively. The top-performing model even exceeds the fully supervised
baseline, showing that a more balanced label than the entire ground truth can
be beneficial.
- Abstract(参考訳): ドメイン適応型アクティブラーニングは、ニューラルネットワークのラベル効率の良いトレーニングの責任者である。
セマンティクスのセグメンテーションでは、最先端のモデルは2つの不確実性と多様性の基準を使ってトレーニングラベルを選択し、ピクセル単位での獲得戦略を組み合わせる。
しかし,このような手法は現在,大規模アクティブな学習予算に対する成績を低下させるクラス不均衡問題に苦しんでいる。
次に,この問題を特に高予算環境において軽減する新しいアクティブラーニング手法であるcbda(class balanced dynamic acquisition)を導入する。
よりバランスの取れたラベルによってマイノリティクラスのパフォーマンスが向上し、それによってモデルはそれぞれ5%、10%、20%の予算で以前のベースラインを0.6、1.7、2.4miouで上回ることができる。
さらに、マイノリティクラスへのフォーカスは、それぞれ0.5、2.9、および4.6 IoUの最小クラスパフォーマンスの改善につながる。
トップパフォーマンスモデルは、完全に教師されたベースラインを超え、地上の真実全体よりもバランスのとれたラベルが有益であることを示す。
関連論文リスト
- Class-Balanced and Reinforced Active Learning on Graphs [13.239043161351482]
グラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類など、さまざまなアプリケーションで大きな成功を収めている。
GNNのアクティブラーニングは、ラベルのないデータから貴重なサンプルを照会して、GNNのパフォーマンスを低コストで最大化することを目的としている。
GNNにおける強化能動学習のための既存のアルゴリズムは、特に高度に歪んだクラスシナリオにおいて、高度に不均衡なクラス分布をもたらす可能性がある。
我々は、GNNのための新しいクラスバランスと強化されたアクティブラーニングフレームワーク、すなわちGCBRを提案し、クラスバランスと情報ノードを取得するための最適なポリシーを学習する。
論文 参考訳(メタデータ) (2024-02-15T16:37:14Z) - Uncertainty-aware Sampling for Long-tailed Semi-supervised Learning [89.98353600316285]
擬似ラベルサンプリングのモデル化プロセスに不確実性を導入し、各クラスにおけるモデル性能が異なる訓練段階によって異なることを考慮した。
このアプローチにより、モデルは異なる訓練段階における擬似ラベルの不確かさを認識でき、それによって異なるクラスの選択閾値を適応的に調整できる。
FixMatchのような他の手法と比較して、UDTSは自然シーン画像データセットの精度を少なくとも5.26%、1.75%、9.96%、1.28%向上させる。
論文 参考訳(メタデータ) (2024-01-09T08:59:39Z) - BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Online Continual Learning via Logit Adjusted Softmax [24.327176079085703]
訓練中のクラス間の不均衡は、忘れる主な原因として特定されている。
トレーニング中のモデルロジットの簡単な調整は、事前クラスバイアスに効果的に抵抗することができる。
提案手法であるLogit Adjusted Softmaxは,クラス増分だけでなく,現実的な一般設定においても,クラス間不均衡の影響を軽減することができる。
論文 参考訳(メタデータ) (2023-11-11T03:03:33Z) - Class-Imbalanced Graph Learning without Class Rebalancing [62.1368829847041]
クラス不均衡は実世界のノード分類タスクでよく見られ、グラフ学習モデルには大きな課題がある。
本研究では、トポロジカルパラダイムからクラス不均衡バイアスの根本原因にアプローチする。
我々は,クラス再バランスを伴わずにクラス不均衡バイアスを軽減するために,軽量なトポロジカル拡張フレームワークであるBATを考案した。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - AdaCC: Cumulative Cost-Sensitive Boosting for Imbalanced Classification [40.942008530628016]
本研究では,不均衡なデータに対する新たなコスト依存型ブースティング手法を提案し,このラウンドに対する誤分類コストを動的に調整する。
AdaCCと呼ばれる本手法は,昇降モデルの累積挙動に依存するため,パラメータフリーである。
論文 参考訳(メタデータ) (2022-09-17T10:46:19Z) - Minority Class Oriented Active Learning for Imbalanced Datasets [6.009262446889319]
本研究では,不均衡なデータセットを対象とした新しいアクティブ学習手法を提案する。
これは、ラベル付きサブセットの不均衡を減らすために、マイノリティクラスにある可能性が高いサンプルを好む。
また、アクティブラーニングのための2つのトレーニングスキームを比較した。
論文 参考訳(メタデータ) (2022-02-01T13:13:41Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - Learning to Fairly Classify the Quality of Wireless Links [0.5352699766206808]
本稿では,高性能な木質リンク品質分類器を提案し,マイノリティクラスを公平に分類する。
選択された不均衡データセット上で,木モデルとMLP非線形モデルと2つの線形モデル,すなわちロジスティック回帰(LR)とSVMを比較した。
本研究は,(1)非線形モデルが一般に線形モデルよりも若干優れていること,2)提案する非線形木ベースモデルが,f1,トレーニング時間,公平性を考慮した最高のパフォーマンストレードオフをもたらすこと,3)正確性のみに基づく単一メトリクス集約評価が貧弱であることを示す。
論文 参考訳(メタデータ) (2021-02-23T12:23:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。