論文の概要: ReMaX: Relaxing for Better Training on Efficient Panoptic Segmentation
- arxiv url: http://arxiv.org/abs/2306.17319v1
- Date: Thu, 29 Jun 2023 22:05:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 13:50:36.598043
- Title: ReMaX: Relaxing for Better Training on Efficient Panoptic Segmentation
- Title(参考訳): ReMaX: 効率的なパノプティカルセグメンテーションのトレーニングを改善するための緩和
- Authors: Shuyang Sun, Weijun Wang, Qihang Yu, Andrew Howard, Philip Torr,
Liang-Chieh Chen
- Abstract要約: ReMaXは、汎視的セグメンテーションのトレーニング中にマスク予測とクラス予測に緩和を追加する。
提案手法はCOCO,ADE20K,Cityscapes上でのパノプティカルセグメンテーションの効率化を実現する。
- 参考スコア(独自算出の注目度): 23.423828026572178
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a new mechanism to facilitate the training of mask
transformers for efficient panoptic segmentation, democratizing its deployment.
We observe that due to its high complexity, the training objective of panoptic
segmentation will inevitably lead to much higher false positive penalization.
Such unbalanced loss makes the training process of the end-to-end
mask-transformer based architectures difficult, especially for efficient
models. In this paper, we present ReMaX that adds relaxation to mask
predictions and class predictions during training for panoptic segmentation. We
demonstrate that via these simple relaxation techniques during training, our
model can be consistently improved by a clear margin \textbf{without} any extra
computational cost on inference. By combining our method with efficient
backbones like MobileNetV3-Small, our method achieves new state-of-the-art
results for efficient panoptic segmentation on COCO, ADE20K and Cityscapes.
Code and pre-trained checkpoints will be available at
\url{https://github.com/google-research/deeplab2}.
- Abstract(参考訳): 本稿では,効率の良いパンオプティカルセグメンテーションのためのマスクトランスフォーマの訓練を容易にする新しいメカニズムを提案する。
我々は、その複雑さが高いため、汎視的セグメンテーションの訓練目的が必然的に偽陽性のペナル化につながることを観察した。
このような不均衡な損失は、特に効率的なモデルにおいて、エンドツーエンドのマスク変換器ベースのアーキテクチャのトレーニングプロセスを難しくする。
本稿では,汎視的セグメンテーションのトレーニング中にマスク予測とクラス予測に緩和を加えたReMaXを提案する。
トレーニング中のこれらの単純な緩和手法により、我々のモデルは推論に余分な計算コストを課すことなく、明確なマージン \textbf{without} によって一貫して改善できることを示した。
提案手法をMobileNetV3-Smallのような効率的なバックボーンと組み合わせることで,COCO,ADE20K,Cityscapes上での効率的なパノプティックセグメンテーションを実現する。
コードと事前トレーニングされたチェックポイントは、 \url{https://github.com/google-research/deeplab2}で入手できる。
関連論文リスト
- ECLIPSE: Efficient Continual Learning in Panoptic Segmentation with Visual Prompt Tuning [54.68180752416519]
パノプティカルセグメンテーション(英: Panoptic segmentation)は、コンピュータビジョンの最先端タスクである。
ECLIPSE と呼ばれる Visual Prompt Tuning をベースとした,新規で効率的なパノプティカルセグメンテーション手法を提案する。
我々のアプローチは、基本モデルのパラメータを凍結し、小さなプロンプト埋め込みだけを微調整することであり、破滅的な忘れ物と塑性の両方に対処する。
論文 参考訳(メタデータ) (2024-03-29T11:31:12Z) - CoMFormer: Continual Learning in Semantic and Panoptic Segmentation [45.66711231393775]
セグメンテーションと汎視的セグメンテーションの両方で操作できる最初の連続学習モデルを提案する。
提案手法はトランスフォーマーアーキテクチャの特性を利用して,時間とともに新しいクラスを学習する。
私たちのCoMFormerは、古いクラスを忘れるだけでなく、より効果的に新しいクラスを学ぶことで、既存のすべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2022-11-25T10:15:06Z) - Exploiting Shape Cues for Weakly Supervised Semantic Segmentation [15.791415215216029]
弱教師付きセマンティックセマンティックセグメンテーション (WSSS) は、画像レベルのラベルのみをトレーニング用として、画素単位のクラス予測を生成することを目的としている。
畳み込みニューラルネットワーク(CNN)のテクスチャバイアス特性を補うために形状情報を活用することを提案する。
我々は、クラスと色親和性の両方を考慮した新しい改良手法により、オンライン方式で予測をさらに洗練する。
論文 参考訳(メタデータ) (2022-08-08T17:25:31Z) - Training Your Sparse Neural Network Better with Any Mask [106.134361318518]
高品質で独立したトレーニング可能なスパースマスクを作成するために、大規模なニューラルネットワークをプルーニングすることが望ましい。
本稿では、デフォルトの高密度ネットワークトレーニングプロトコルから逸脱するためにスパーストレーニングテクニックをカスタマイズできる別の機会を示す。
我々の新しいスパーストレーニングレシピは、スクラッチから様々なスパースマスクでトレーニングを改善するために一般的に適用されます。
論文 参考訳(メタデータ) (2022-06-26T00:37:33Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - KSM: Fast Multiple Task Adaption via Kernel-wise Soft Mask Learning [49.77278179376902]
Deep Neural Networks (DNN)は、新しいタスクを学ぶときの以前のタスクに関する知識を忘れることができ、これはtextitcatastrophic forgettingとして知られている。
最近の連続学習手法は、玩具サイズのデータセットにおける破滅的な問題を緩和することができる。
我々は,各タスクに対して,カーネルワイドなハイブリッドな2値マスクと実値のソフトマスクを学習する,textit- Kernel-wise Soft Mask (KSM) と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-09-11T21:48:39Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - Learning Fast and Robust Target Models for Video Object Segmentation [83.3382606349118]
ビデオオブジェクトセグメンテーション(VOS)は、ターゲットオブジェクトを定義する初期マスクがテスト時にのみ与えられるため、非常に難しい問題である。
それまでのほとんどの場合、第1フレーム上のファイン・チューン・セグメンテーション・ネットワークにアプローチし、非現実的なフレームレートとオーバーフィッティングのリスクをもたらす。
本稿では,2つのネットワークコンポーネントからなる新しいVOSアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-27T21:58:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。