論文の概要: Class Based Thresholding in Early Exit Semantic Segmentation Networks
- arxiv url: http://arxiv.org/abs/2210.15621v1
- Date: Thu, 27 Oct 2022 17:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 13:18:38.809569
- Title: Class Based Thresholding in Early Exit Semantic Segmentation Networks
- Title(参考訳): 初期のセマンティックセグメンテーションネットワークにおけるクラスベース閾値
- Authors: Alperen G\"ormez and Erdem Koyuncu
- Abstract要約: 我々は,早期出口セマンティックセグメンテーションモデルの計算コストを削減するために,クラスベースThresholding (CBT)を提案する。
CBTは従来の最先端の早期出口モデルと比較して計算コストを23%削減できる。
- 参考スコア(独自算出の注目度): 14.048989759890475
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose Class Based Thresholding (CBT) to reduce the computational cost of
early exit semantic segmentation models while preserving the mean intersection
over union (mIoU) performance. A key idea of CBT is to exploit the
naturally-occurring neural collapse phenomenon. Specifically, by calculating
the mean prediction probabilities of each class in the training set, CBT
assigns different masking threshold values to each class, so that the
computation can be terminated sooner for pixels belonging to easy-to-predict
classes. We show the effectiveness of CBT on Cityscapes and ADE20K datasets.
CBT can reduce the computational cost by $23\%$ compared to the previous
state-of-the-art early exit models.
- Abstract(参考訳): そこで我々は,初期出口セマンティックセグメンテーションモデルの計算コストを低減し,mIoU(Universal Over Union)の性能を平均的に保ちながら,クラスベーススレッショニング(Class Based Thresholding, CBT)を提案する。
CBTの鍵となる考え方は、自然に発生する神経崩壊現象を活用することである。
具体的には、トレーニングセットの各クラスの平均予測確率を計算することで、CBTは各クラスに異なるマスキング閾値を割り当て、容易に予測可能なクラスに属するピクセルに対して、より早く計算を終了させることができる。
CBTがCityscapesおよびADE20Kデータセットに与える影響を示す。
cbtは、従来の最先端のアーリーエグジットモデルと比較して、計算コストを23\%削減できる。
関連論文リスト
- A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Class Gradient Projection For Continual Learning [99.105266615448]
破滅的な忘れは継続的学習(CL)における最も重要な課題の1つです。
タスクではなく個々のクラスから勾配部分空間を計算するクラスグラディエント・プロジェクション(CGP)を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:45:56Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Preventing Zero-Shot Transfer Degradation in Continual Learning of
Vision-Language Models [13.340759455910721]
本稿では,視覚言語モデルの連続学習におけるゼロショット転送劣化を防止する新しい手法を提案する。
本手法は,従来のクラス増分学習環境において,他の手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-12T10:28:07Z) - Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class
Incremental Learning [120.53458753007851]
FSCIL(Few-shot class-incremental Learning)は、新しいセッションにおいて、新しいクラスごとにいくつかのトレーニングサンプルしかアクセスできないため、難しい問題である。
我々は最近発見された神経崩壊現象にインスパイアされたFSCILのこの不整合ジレンマに対処する。
我々は、FSCILのための神経崩壊誘発フレームワークを提案する。MiniImageNet、CUB-200、CIFAR-100データセットの実験により、提案したフレームワークが最先端のパフォーマンスより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-06T18:39:40Z) - Modeling the Background for Incremental and Weakly-Supervised Semantic
Segmentation [39.025848280224785]
セマンティックセグメンテーションのための新しい漸進的なクラス学習手法を提案する。
各トレーニングステップは、すべての可能なクラスのサブセットにのみアノテーションを提供するので、バックグラウンドクラスのピクセルはセマンティックシフトを示す。
本研究では,Pascal-VOC,ADE20K,Cityscapesのデータセットを広範囲に評価し,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-01-31T16:33:21Z) - You Only Need End-to-End Training for Long-Tailed Recognition [8.789819609485225]
クロスエントロピー損失は、不均衡なデータに非常に相関した特徴をもたらす傾向にある。
ブロックベース相対平衡バッチサンプリング(B3RS)とバッチ埋め込みトレーニング(BET)の2つの新しいモジュールを提案する。
CIFAR-LT と ImageNet-LT の長期分類ベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-12-11T11:44:09Z) - DenseCLIP: Extract Free Dense Labels from CLIP [130.3830819077699]
対照的に、CLIP(Contrastive Language- Image Pre-Training)は、オープンボキャブラリゼロショット画像認識において画期的な進歩を遂げた。
DenseCLIP+はSOTAトランスダクティブなゼロショットセマンティックセグメンテーション法を大きなマージンで上回る。
我々の発見は、DenseCLIPが高密度予測タスクの信頼性の高い新たな監視源となることを示唆している。
論文 参考訳(メタデータ) (2021-12-02T09:23:01Z) - Scaling Semantic Segmentation Beyond 1K Classes on a Single GPU [87.48110331544885]
既存のセマンティックセグメンテーションモデルのトレーニングとスケールアップのための新しいトレーニング手法を提案する。
我々は、LVISとCOCOアノテーションからブートストラップした1284クラスのデータセットに対するアプローチの明確な利点を示し、DeeplabV3+モデルの3倍のmIoUを実現した。
論文 参考訳(メタデータ) (2020-12-14T13:12:38Z) - Prevalence of Neural Collapse during the terminal phase of deep learning
training [7.031848258307718]
終末訓練(TPT)によるDeepnets分類訓練の現代的実践
TPT中、トレーニングエラーは事実上ゼロであり、トレーニング損失はゼロにプッシュされる。
TPTによって誘導される対称的かつ非常に単純な幾何学は、より良い性能、より良い一般化、より良い解釈可能性を含む重要な利益をもたらす。
論文 参考訳(メタデータ) (2020-08-18T23:12:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。