論文の概要: Continual Adaptation of Visual Representations via Domain Randomization
and Meta-learning
- arxiv url: http://arxiv.org/abs/2012.04324v2
- Date: Thu, 8 Apr 2021 15:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 17:35:52.099401
- Title: Continual Adaptation of Visual Representations via Domain Randomization
and Meta-learning
- Title(参考訳): ドメインランダム化とメタラーニングによる視覚表現の連続的適応
- Authors: Riccardo Volpi, Diane Larlus, Gr\'egory Rogez
- Abstract要約: ほとんどの標準的な学習アプローチは、異なる性質のサンプルを逐次訓練すると、漂流しにくい脆弱なモデルにつながる。
忘れることに対して本質的により堅牢なモデルを学ぶ方法の1つは、ドメインのランダム化である。
正規化子は、現在のドメインから異なる"副次的"メタドメインへのモデル転送に関連する損失を明示的に罰するメタラーニング戦略を考案する。
- 参考スコア(独自算出の注目度): 21.50683576864347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most standard learning approaches lead to fragile models which are prone to
drift when sequentially trained on samples of a different nature - the
well-known "catastrophic forgetting" issue. In particular, when a model
consecutively learns from different visual domains, it tends to forget the past
domains in favor of the most recent ones. In this context, we show that one way
to learn models that are inherently more robust against forgetting is domain
randomization - for vision tasks, randomizing the current domain's distribution
with heavy image manipulations. Building on this result, we devise a
meta-learning strategy where a regularizer explicitly penalizes any loss
associated with transferring the model from the current domain to different
"auxiliary" meta-domains, while also easing adaptation to them. Such
meta-domains are also generated through randomized image manipulations. We
empirically demonstrate in a variety of experiments - spanning from
classification to semantic segmentation - that our approach results in models
that are less prone to catastrophic forgetting when transferred to new domains.
- Abstract(参考訳): ほとんどの標準的な学習アプローチは、異なる性質のサンプルで順次トレーニングされた時にドリフトしやすい脆弱なモデルへとつながります。
特に、モデルが異なる視覚的なドメインから連続して学習すると、過去のドメインを忘れ、最新のものを好む傾向があります。
この文脈では、忘れることに対して本質的に堅牢なモデルを学ぶ方法の一つがドメインランダム化であり、視覚タスクでは、画像操作で現在のドメインの分布をランダム化する。
この結果に基づいて,レギュラライザが,現行ドメインから異なる"副"メタドメインへのモデル転送に伴う損失を明示的に罰すると同時に,それらへの適応を容易にするメタラーニング戦略を考案する。
このようなメタドメインはランダムな画像操作によっても生成される。
我々は、分類からセマンティックセグメンテーションまで、様々な実験において、新しいドメインに移る際に破滅的な忘れをしがちなモデルをもたらすことを実証的に実証した。
関連論文リスト
- SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Domain-General Crowd Counting in Unseen Scenarios [25.171343652312974]
群集データ間のドメインシフトは、群集数モデルが目に見えないシナリオに一般化するのを著しく妨げます。
ソースドメインを複数のサブドメインに分割する動的サブドメイン分割方式を提案する。
画像特徴におけるドメイン固有情報からドメイン不変情報を切り離すために、ドメイン不変および-特定のクラウドメモリモジュールを設計する。
論文 参考訳(メタデータ) (2022-12-05T19:52:28Z) - Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations [80.76164484820818]
多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスとドメインにまたがってよく一般化されたモデルを作成することを目的とする。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合することでこれを達成している。
論文 参考訳(メタデータ) (2022-10-25T21:54:26Z) - Forget Less, Count Better: A Domain-Incremental Self-Distillation
Learning Benchmark for Lifelong Crowd Counting [51.44987756859706]
オフザシェルフ法は複数のドメインを扱うのにいくつかの欠点がある。
生涯クラウドカウンティングは、壊滅的な忘れを緩和し、一般化能力を改善することを目的としている。
論文 参考訳(メタデータ) (2022-05-06T15:37:56Z) - A Domain Gap Aware Generative Adversarial Network for Multi-domain Image
Translation [22.47113158859034]
本稿では,複数の領域にまたがって画像の変換を行う統一モデルを提案する。
単一の統一ジェネレータにより、モデルはグローバルな形状と複数のドメインにわたる局所的なテクスチャ情報との整合性を維持することができる。
論文 参考訳(メタデータ) (2021-10-21T00:33:06Z) - Domain Generalization via Gradient Surgery [5.38147998080533]
現実のアプリケーションでは、マシンラーニングモデルは、トレーニングとテストドメイン間のデータ分散の変化があるシナリオに直面します。
本研究では,ドメインシフトのシナリオに現れる矛盾する勾配を特徴付けるとともに,新たな勾配合意戦略を考案する。
論文 参考訳(メタデータ) (2021-08-03T16:49:25Z) - Semi-supervised Meta-learning with Disentanglement for
Domain-generalised Medical Image Segmentation [15.351113774542839]
新たなセンター(ここではドメイン)からの新しいデータにモデルを一般化することは、依然として課題である。
本稿では,絡み合いを伴う半教師付きメタラーニングフレームワークを提案する。
提案手法は,異なるセグメンテーションタスクに対して頑健であり,2つの公開ベンチマーク上での最先端の一般化性能を実現する。
論文 参考訳(メタデータ) (2021-06-24T19:50:07Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。