論文の概要: Learning with Style: Continual Semantic Segmentation Across Tasks and
Domains
- arxiv url: http://arxiv.org/abs/2210.07016v1
- Date: Thu, 13 Oct 2022 13:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 16:36:30.344250
- Title: Learning with Style: Continual Semantic Segmentation Across Tasks and
Domains
- Title(参考訳): スタイルによる学習:タスクとドメイン間の連続的なセマンティックセグメンテーション
- Authors: Marco Toldo, Umberto Michieli, Pietro Zanuttigh
- Abstract要約: ドメイン適応とクラス増分学習はドメインとタスクの変数を別々に扱います。
我々は、入力空間とラベル空間のセマンティックシフトを考慮して、問題の両面に一緒に取り組みます。
提案手法は,タスクシフトとドメインシフトの両方で連続的なセマンティックセグメンテーションを扱うのに不十分であることを示す既存手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 25.137859989323537
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning models dealing with image understanding in real-world settings
must be able to adapt to a wide variety of tasks across different domains.
Domain adaptation and class incremental learning deal with domain and task
variability separately, whereas their unified solution is still an open
problem. We tackle both facets of the problem together, taking into account the
semantic shift within both input and label spaces. We start by formally
introducing continual learning under task and domain shift. Then, we address
the proposed setup by using style transfer techniques to extend knowledge
across domains when learning incremental tasks and a robust distillation
framework to effectively recollect task knowledge under incremental domain
shift. The devised framework (LwS, Learning with Style) is able to generalize
incrementally acquired task knowledge across all the domains encountered,
proving to be robust against catastrophic forgetting. Extensive experimental
evaluation on multiple autonomous driving datasets shows how the proposed
method outperforms existing approaches, which prove to be ill-equipped to deal
with continual semantic segmentation under both task and domain shift.
- Abstract(参考訳): 実際の環境での画像理解を扱うディープラーニングモデルは、さまざまなドメインにわたるさまざまなタスクに適応できなければなりません。
ドメイン適応とクラスインクリメンタル学習はドメインとタスクのバラエティを別々に扱うが、それらの統一ソリューションは依然として未解決の問題である。
我々は,入力空間とラベル空間の両方における意味的変化を考慮に入れて,問題の対面を共に取り組む。
タスクとドメインシフトの下での継続的学習を正式に導入することから始めます。
そこで本研究では,インクリメンタルなタスクを学習する際の知識をドメイン間で拡張するためのスタイル伝達手法と,インクリメンタルなドメインシフト下でタスク知識を効果的に再収集するロバストな蒸留フレームワークを用いて,提案手法を提案する。
考案されたフレームワーク(lws, learning with style)は、遭遇したすべてのドメインに対して段階的に獲得したタスク知識を一般化することができる。
複数の自律運転データセットに関する広範囲な実験的評価は、提案手法が既存のアプローチを上回っており、タスクとドメインシフトの両方の下での継続的なセマンティックセグメンテーションに対処するために不備があることを証明している。
関連論文リスト
- Learning Good Features to Transfer Across Tasks and Domains [16.05821129333396]
まず、与えられたドメイン内のタスク固有の深い機能間のマッピングを学習することで、タスク間でそのような知識を共有できることを示します。
そして、ニューラルネットワークによって実装されたこのマッピング関数が、新しい未知の領域に一般化可能であることを示す。
論文 参考訳(メタデータ) (2023-01-26T18:49:39Z) - Learn what matters: cross-domain imitation learning with task-relevant
embeddings [77.34726150561087]
自律エージェントが、異なる環境や異なるエージェントなど、異なる領域のデモンストレーションからタスクを実行することを学習する方法について検討する。
我々は、追加のデモンストレーションやさらなるドメイン知識にアクセスすることなく、クロスドメインの模倣学習を可能にするスケーラブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-24T21:56:58Z) - Set-based Meta-Interpolation for Few-Task Meta-Learning [79.4236527774689]
そこで本研究では,メタトレーニングタスクの分散化を目的とした,ドメインに依存しないタスク拡張手法Meta-Interpolationを提案する。
様々な領域にまたがる8つのデータセットに対してメタ補間の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2022-05-20T06:53:03Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Meta Learning on a Sequence of Imbalanced Domains with Difficulty
Awareness [6.648670454325191]
現在のメタ学習アルゴリズムにまたがる典型的な設定は、メタトレーニング中に定常的なタスク分布を仮定する。
タスク分散とドメインラベルが本質的に利用できないような現実的なシナリオを考察する。
本稿では,ドメイン変更検出のためのカーネルベースの手法と,メモリ管理の難易度を考慮した機構を提案する。
論文 参考訳(メタデータ) (2021-09-29T00:53:09Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - Cross-domain Imitation from Observations [50.669343548588294]
模擬学習は、専門家の行動を利用して訓練エージェントに適切な報酬関数を設計することの難しさを回避しようとする。
本稿では,専門家とエージェントMDPの相違点が存在する場合に,タスクを模倣する方法の問題について検討する。
このようなドメイン間の対応を学習するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-20T21:08:25Z) - Domain-Robust Visual Imitation Learning with Mutual Information
Constraints [0.0]
Disentangling Generative Adversarial Imitation Learning (DisentanGAIL)と呼ばれる新しいアルゴリズムを導入する。
本アルゴリズムは,タスクを実行する専門家の高次元観察から自律エージェントを直接学習することを可能にする。
論文 参考訳(メタデータ) (2021-03-08T21:18:58Z) - Domain Adaptive Knowledge Distillation for Driving Scene Semantic
Segmentation [9.203485172547824]
本稿では,限られたメモリを持つモデルにおいて,ドメイン適応知識を学習するための新しいアプローチを提案する。
異なるレベルの知識を効果的に消毒するための多段階蒸留戦略を提案する。
実物と実物の両方のシナリオについて、広範囲にわたる実験およびアブレーション研究を行う。
論文 参考訳(メタデータ) (2020-11-03T03:01:09Z) - Learning Task-oriented Disentangled Representations for Unsupervised
Domain Adaptation [165.61511788237485]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインとラベルなしターゲットドメインの間のドメインシフト問題に対処することを目的としている。
UDAのための動的タスク指向の非絡合ネットワーク(DTDN)を提案し,非絡合表現をエンドツーエンドで学習する。
論文 参考訳(メタデータ) (2020-07-27T01:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。