論文の概要: Ada-Segment: Automated Multi-loss Adaptation for Panoptic Segmentation
- arxiv url: http://arxiv.org/abs/2012.03603v1
- Date: Mon, 7 Dec 2020 11:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:23:35.853178
- Title: Ada-Segment: Automated Multi-loss Adaptation for Panoptic Segmentation
- Title(参考訳): Ada-Segment: パノプティカルセグメンテーションのための自動マルチロス適応
- Authors: Gengwei Zhang, Yiming Gao, Hang Xu, Hao Zhang, Zhenguo Li, Xiaodan
Liang
- Abstract要約: 我々は,トレーニング期間中に複数のトレーニング損失を柔軟に調整する自動マルチロス適応(ada-segment)を提案する。
エンドツーエンドアーキテクチャにより、ada-segmentはハイパーパラメータを再チューニングすることなく、異なるデータセットに一般化する。
Ada-Segmentは、バニラベースラインからCOCOval分割に2.7%のパノラマ品質(PQ)改善をもたらし、COCOテストデブ分割に最新の48.5%PQ、ADE20Kデータセットに32.9%PQを達成しました。
- 参考スコア(独自算出の注目度): 95.31590177308482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Panoptic segmentation that unifies instance segmentation and semantic
segmentation has recently attracted increasing attention. While most existing
methods focus on designing novel architectures, we steer toward a different
perspective: performing automated multi-loss adaptation (named Ada-Segment) on
the fly to flexibly adjust multiple training losses over the course of training
using a controller trained to capture the learning dynamics. This offers a few
advantages: it bypasses manual tuning of the sensitive loss combination, a
decisive factor for panoptic segmentation; it allows to explicitly model the
learning dynamics, and reconcile the learning of multiple objectives (up to ten
in our experiments); with an end-to-end architecture, it generalizes to
different datasets without the need of re-tuning hyperparameters or
re-adjusting the training process laboriously. Our Ada-Segment brings 2.7%
panoptic quality (PQ) improvement on COCO val split from the vanilla baseline,
achieving the state-of-the-art 48.5% PQ on COCO test-dev split and 32.9% PQ on
ADE20K dataset. The extensive ablation studies reveal the ever-changing
dynamics throughout the training process, necessitating the incorporation of an
automated and adaptive learning strategy as presented in this paper.
- Abstract(参考訳): インスタンスのセグメンテーションとセマンティックセグメンテーションを統合するpanoptic segmentationが最近注目を集めている。
学習のダイナミクスをキャプチャするためにトレーニングされたコントローラを使用して、トレーニング期間中に複数のトレーニング損失を柔軟に調整するために、ada-segmentと呼ばれる自動マルチロス適応(automated multi-loss adaptation)をオンザフライで実行します。
これは、センシティブな損失の組み合わせの手動チューニングを回避し、パンオプティカルセグメンテーションの決定的な要因である;学習ダイナミクスを明示的にモデル化し、複数の目的の学習(私たちの実験では最大10まで)を調整可能にする;エンドツーエンドアーキテクチャでは、ハイパーパラメータを再チューニングしたり、トレーニングプロセスを再調整することなく、さまざまなデータセットに一般化する。
当社のAda-Segmentは、COCOvalをバニラベースラインから分離した上で、2.7%のパノライト品質(PQ)の改善を実現し、COCOテストデブ分割の最先端の48.5%、ADE20Kデータセットの32.9%のPQを実現しました。
広範なアブレーション研究は,本論文で提示したような自動適応学習戦略の導入を必要とせず,トレーニングプロセス全体で変化の激しいダイナミクスを明らかにしている。
関連論文リスト
- Contrastive-Adversarial and Diffusion: Exploring pre-training and fine-tuning strategies for sulcal identification [3.0398616939692777]
対人学習、コントラスト学習、拡散認知学習、通常の再構成学習といった技術が標準となっている。
この研究は、ニューラルネットワークの学習プロセスを強化するために、事前学習技術と微調整戦略の利点を解明することを目的としている。
論文 参考訳(メタデータ) (2024-05-29T15:44:51Z) - Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - Dynamic Multi-Scale Loss Optimization for Object Detection [14.256807110937622]
マルチスケール検出器訓練の客観的不均衡について検討する。
本稿では, 適応可変重み付け (AVW) を提案する。
トレーニング中に重み付け方式を確率的に決定する新しい強化学習最適化(RLO)を開発した。
論文 参考訳(メタデータ) (2021-08-09T13:12:41Z) - An EM Framework for Online Incremental Learning of Semantic Segmentation [37.94734474090863]
本稿では,新しいクラスのみに画素アノテーションを付加したストリーミング入力データを用いて,大惨な忘れをせずに深いセグメンテーションモデルを適応できる漸進的な学習戦略を提案する。
PASCAL VOC 2012とADE20Kデータセットに対するアプローチを検証するとともに,既存のインクリメンタルメソッドよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-08T11:30:09Z) - Dynamic Divide-and-Conquer Adversarial Training for Robust Semantic
Segmentation [79.42338812621874]
敵のトレーニングは、敵の摂動に対するディープニューラルネットワークの堅牢性を改善することを約束している。
本研究は, 敵とクリーンの両方のサンプルに対して良好に動作可能な, 汎用的な敵の訓練手順を定式化する。
本稿では,防衛効果を高めるための動的分割対対人訓練(DDC-AT)戦略を提案する。
論文 参考訳(メタデータ) (2020-03-14T05:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。