論文の概要: Ada-Segment: Automated Multi-loss Adaptation for Panoptic Segmentation
- arxiv url: http://arxiv.org/abs/2012.03603v1
- Date: Mon, 7 Dec 2020 11:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:23:35.853178
- Title: Ada-Segment: Automated Multi-loss Adaptation for Panoptic Segmentation
- Title(参考訳): Ada-Segment: パノプティカルセグメンテーションのための自動マルチロス適応
- Authors: Gengwei Zhang, Yiming Gao, Hang Xu, Hao Zhang, Zhenguo Li, Xiaodan
Liang
- Abstract要約: 我々は,トレーニング期間中に複数のトレーニング損失を柔軟に調整する自動マルチロス適応(ada-segment)を提案する。
エンドツーエンドアーキテクチャにより、ada-segmentはハイパーパラメータを再チューニングすることなく、異なるデータセットに一般化する。
Ada-Segmentは、バニラベースラインからCOCOval分割に2.7%のパノラマ品質(PQ)改善をもたらし、COCOテストデブ分割に最新の48.5%PQ、ADE20Kデータセットに32.9%PQを達成しました。
- 参考スコア(独自算出の注目度): 95.31590177308482
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Panoptic segmentation that unifies instance segmentation and semantic
segmentation has recently attracted increasing attention. While most existing
methods focus on designing novel architectures, we steer toward a different
perspective: performing automated multi-loss adaptation (named Ada-Segment) on
the fly to flexibly adjust multiple training losses over the course of training
using a controller trained to capture the learning dynamics. This offers a few
advantages: it bypasses manual tuning of the sensitive loss combination, a
decisive factor for panoptic segmentation; it allows to explicitly model the
learning dynamics, and reconcile the learning of multiple objectives (up to ten
in our experiments); with an end-to-end architecture, it generalizes to
different datasets without the need of re-tuning hyperparameters or
re-adjusting the training process laboriously. Our Ada-Segment brings 2.7%
panoptic quality (PQ) improvement on COCO val split from the vanilla baseline,
achieving the state-of-the-art 48.5% PQ on COCO test-dev split and 32.9% PQ on
ADE20K dataset. The extensive ablation studies reveal the ever-changing
dynamics throughout the training process, necessitating the incorporation of an
automated and adaptive learning strategy as presented in this paper.
- Abstract(参考訳): インスタンスのセグメンテーションとセマンティックセグメンテーションを統合するpanoptic segmentationが最近注目を集めている。
学習のダイナミクスをキャプチャするためにトレーニングされたコントローラを使用して、トレーニング期間中に複数のトレーニング損失を柔軟に調整するために、ada-segmentと呼ばれる自動マルチロス適応(automated multi-loss adaptation)をオンザフライで実行します。
これは、センシティブな損失の組み合わせの手動チューニングを回避し、パンオプティカルセグメンテーションの決定的な要因である;学習ダイナミクスを明示的にモデル化し、複数の目的の学習(私たちの実験では最大10まで)を調整可能にする;エンドツーエンドアーキテクチャでは、ハイパーパラメータを再チューニングしたり、トレーニングプロセスを再調整することなく、さまざまなデータセットに一般化する。
当社のAda-Segmentは、COCOvalをバニラベースラインから分離した上で、2.7%のパノライト品質(PQ)の改善を実現し、COCOテストデブ分割の最先端の48.5%、ADE20Kデータセットの32.9%のPQを実現しました。
広範なアブレーション研究は,本論文で提示したような自動適応学習戦略の導入を必要とせず,トレーニングプロセス全体で変化の激しいダイナミクスを明らかにしている。
関連論文リスト
- SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - Multi-scale and Cross-scale Contrastive Learning for Semantic
Segmentation [5.281694565226513]
セグメンテーションネットワークによって抽出されたマルチスケール特徴の識別能力を高めるために,コントラスト学習を適用した。
まず、エンコーダのマルチスケール表現を共通の特徴空間にマッピングすることにより、教師付き局所言語制約の新しい形式をインスタンス化する。
論文 参考訳(メタデータ) (2022-03-25T01:24:24Z) - Dynamic Multi-Scale Loss Optimization for Object Detection [14.256807110937622]
マルチスケール検出器訓練の客観的不均衡について検討する。
本稿では, 適応可変重み付け (AVW) を提案する。
トレーニング中に重み付け方式を確率的に決定する新しい強化学習最適化(RLO)を開発した。
論文 参考訳(メタデータ) (2021-08-09T13:12:41Z) - An EM Framework for Online Incremental Learning of Semantic Segmentation [37.94734474090863]
本稿では,新しいクラスのみに画素アノテーションを付加したストリーミング入力データを用いて,大惨な忘れをせずに深いセグメンテーションモデルを適応できる漸進的な学習戦略を提案する。
PASCAL VOC 2012とADE20Kデータセットに対するアプローチを検証するとともに,既存のインクリメンタルメソッドよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-08T11:30:09Z) - Layer Pruning on Demand with Intermediate CTC [50.509073206630994]
我々はコネクショニスト時間分類(CTC)に基づくASRの訓練と刈り取り方法を提案する。
本稿では,Transformer-CTCモデルをオンデマンドで様々な深さでプルーニングできることを示し,GPU上でのリアルタイム係数を0.005から0.002に改善した。
論文 参考訳(メタデータ) (2021-06-17T02:40:18Z) - Dynamic Divide-and-Conquer Adversarial Training for Robust Semantic
Segmentation [79.42338812621874]
敵のトレーニングは、敵の摂動に対するディープニューラルネットワークの堅牢性を改善することを約束している。
本研究は, 敵とクリーンの両方のサンプルに対して良好に動作可能な, 汎用的な敵の訓練手順を定式化する。
本稿では,防衛効果を高めるための動的分割対対人訓練(DDC-AT)戦略を提案する。
論文 参考訳(メタデータ) (2020-03-14T05:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。