論文の概要: Class Based Thresholding in Early Exit Semantic Segmentation Networks
- arxiv url: http://arxiv.org/abs/2210.15621v1
- Date: Thu, 27 Oct 2022 17:10:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 13:18:38.809569
- Title: Class Based Thresholding in Early Exit Semantic Segmentation Networks
- Title(参考訳): 初期のセマンティックセグメンテーションネットワークにおけるクラスベース閾値
- Authors: Alperen G\"ormez and Erdem Koyuncu
- Abstract要約: 我々は,早期出口セマンティックセグメンテーションモデルの計算コストを削減するために,クラスベースThresholding (CBT)を提案する。
CBTは従来の最先端の早期出口モデルと比較して計算コストを23%削減できる。
- 参考スコア(独自算出の注目度): 14.048989759890475
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose Class Based Thresholding (CBT) to reduce the computational cost of
early exit semantic segmentation models while preserving the mean intersection
over union (mIoU) performance. A key idea of CBT is to exploit the
naturally-occurring neural collapse phenomenon. Specifically, by calculating
the mean prediction probabilities of each class in the training set, CBT
assigns different masking threshold values to each class, so that the
computation can be terminated sooner for pixels belonging to easy-to-predict
classes. We show the effectiveness of CBT on Cityscapes and ADE20K datasets.
CBT can reduce the computational cost by $23\%$ compared to the previous
state-of-the-art early exit models.
- Abstract(参考訳): そこで我々は,初期出口セマンティックセグメンテーションモデルの計算コストを低減し,mIoU(Universal Over Union)の性能を平均的に保ちながら,クラスベーススレッショニング(Class Based Thresholding, CBT)を提案する。
CBTの鍵となる考え方は、自然に発生する神経崩壊現象を活用することである。
具体的には、トレーニングセットの各クラスの平均予測確率を計算することで、CBTは各クラスに異なるマスキング閾値を割り当て、容易に予測可能なクラスに属するピクセルに対して、より早く計算を終了させることができる。
CBTがCityscapesおよびADE20Kデータセットに与える影響を示す。
cbtは、従来の最先端のアーリーエグジットモデルと比較して、計算コストを23\%削減できる。
関連論文リスト
- Efficient Neural Network Training via Subset Pretraining [5.352839075466439]
ニューラルネットワークのトレーニングでは、バッチ上で計算された部分勾配を使用するのが一般的である。
トレーニングセットの損失最小限は、そのサブセットのミニマによって適切に近似されることが期待できる。
実験の結果 従来の訓練に匹敵する結果に 達できることが確認されました。
論文 参考訳(メタデータ) (2024-10-21T21:31:12Z) - Less Peaky and More Accurate CTC Forced Alignment by Label Priors [57.48450905027108]
接続性時間分類(CTC)モデルはピーク出力分布を持つことが知られている。
本稿では, CTCのピーク動作を緩和し, 強制アライメント生成への適合性を向上させることを目的とする。
我々のCTCモデルはピーク後部を減らし、トークンのオフセットをより正確に予測することができる。
論文 参考訳(メタデータ) (2024-04-22T17:40:08Z) - Sparse Concept Bottleneck Models: Gumbel Tricks in Contrastive Learning [86.15009879251386]
概念ボトルネックモデル(CBM)を用いた新しいアーキテクチャと説明可能な分類法を提案する。
CBMには、さらなる概念のセットが必要である。
CLIPをベースとしたボトルネックモデルにおいて,スパース隠れ層を用いた精度の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-04-04T09:43:43Z) - ECLIPSE: Efficient Continual Learning in Panoptic Segmentation with Visual Prompt Tuning [54.68180752416519]
パノプティカルセグメンテーション(英: Panoptic segmentation)は、コンピュータビジョンの最先端タスクである。
ECLIPSE と呼ばれる Visual Prompt Tuning をベースとした,新規で効率的なパノプティカルセグメンテーション手法を提案する。
我々のアプローチは、基本モデルのパラメータを凍結し、小さなプロンプト埋め込みだけを微調整することであり、破滅的な忘れ物と塑性の両方に対処する。
論文 参考訳(メタデータ) (2024-03-29T11:31:12Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Preventing Zero-Shot Transfer Degradation in Continual Learning of
Vision-Language Models [13.340759455910721]
本稿では,視覚言語モデルの連続学習におけるゼロショット転送劣化を防止する新しい手法を提案する。
本手法は,従来のクラス増分学習環境において,他の手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-12T10:28:07Z) - You Only Need End-to-End Training for Long-Tailed Recognition [8.789819609485225]
クロスエントロピー損失は、不均衡なデータに非常に相関した特徴をもたらす傾向にある。
ブロックベース相対平衡バッチサンプリング(B3RS)とバッチ埋め込みトレーニング(BET)の2つの新しいモジュールを提案する。
CIFAR-LT と ImageNet-LT の長期分類ベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-12-11T11:44:09Z) - DenseCLIP: Extract Free Dense Labels from CLIP [130.3830819077699]
対照的に、CLIP(Contrastive Language- Image Pre-Training)は、オープンボキャブラリゼロショット画像認識において画期的な進歩を遂げた。
DenseCLIP+はSOTAトランスダクティブなゼロショットセマンティックセグメンテーション法を大きなマージンで上回る。
我々の発見は、DenseCLIPが高密度予測タスクの信頼性の高い新たな監視源となることを示唆している。
論文 参考訳(メタデータ) (2021-12-02T09:23:01Z) - Prevalence of Neural Collapse during the terminal phase of deep learning
training [7.031848258307718]
終末訓練(TPT)によるDeepnets分類訓練の現代的実践
TPT中、トレーニングエラーは事実上ゼロであり、トレーニング損失はゼロにプッシュされる。
TPTによって誘導される対称的かつ非常に単純な幾何学は、より良い性能、より良い一般化、より良い解釈可能性を含む重要な利益をもたらす。
論文 参考訳(メタデータ) (2020-08-18T23:12:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。