論文の概要: Principles of Forgetting in Domain-Incremental Semantic Segmentation in
Adverse Weather Conditions
- arxiv url: http://arxiv.org/abs/2303.14115v1
- Date: Fri, 24 Mar 2023 16:23:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 13:54:38.823915
- Title: Principles of Forgetting in Domain-Incremental Semantic Segmentation in
Adverse Weather Conditions
- Title(参考訳): 気象条件下におけるドメイン・インクリメンタルセマンティクスセグメンテーションにおける忘れ方原理
- Authors: Tobias Kalb, J\"urgen Beyerer
- Abstract要約: 逆気象条件は、トレーニング中にそのようなデータが入手できない場合、モデルの性能を著しく低下させることができる。
気象条件下でのドメイン・インクリメンタル・ラーニングにおいて,セマンティックセグメンテーション・モデルの表現がどのように影響を受けるかを検討する。
実験と表現分析から,大惨な忘れは,ドメイン・インクリメンタル・ラーニングにおける低レベルの特徴の変化に起因することが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks for scene perception in automated vehicles achieve
excellent results for the domains they were trained on. However, in real-world
conditions, the domain of operation and its underlying data distribution are
subject to change. Adverse weather conditions, in particular, can significantly
decrease model performance when such data are not available during
training.Additionally, when a model is incrementally adapted to a new domain,
it suffers from catastrophic forgetting, causing a significant drop in
performance on previously observed domains. Despite recent progress in reducing
catastrophic forgetting, its causes and effects remain obscure. Therefore, we
study how the representations of semantic segmentation models are affected
during domain-incremental learning in adverse weather conditions. Our
experiments and representational analyses indicate that catastrophic forgetting
is primarily caused by changes to low-level features in domain-incremental
learning and that learning more general features on the source domain using
pre-training and image augmentations leads to efficient feature reuse in
subsequent tasks, which drastically reduces catastrophic forgetting. These
findings highlight the importance of methods that facilitate generalized
features for effective continual learning algorithms.
- Abstract(参考訳): 自動運転車のシーン認識のためのディープニューラルネットワークは、訓練されたドメインに対して優れた結果をもたらす。
しかし,実世界の状況では,操作領域とその基礎となるデータ分布は変化する。
特に悪天候条件は、トレーニング中にデータが得られない場合、モデル性能を著しく低下させ、さらに、モデルが新しいドメインに段階的に適合すると、壊滅的な忘れがちとなり、以前観測された領域でパフォーマンスが大幅に低下する。
破滅的な忘れを減らそうとする最近の進歩にもかかわらず、その原因と効果はいまだに不明である。
そこで本研究では, 気象条件下でのドメインインクリメンタル学習において, 意味セグメンテーションモデルの表現がどう影響するかについて検討する。
実験と表現分析の結果,大惨な忘れはドメイン・インクリメンタル・ラーニングにおける低レベルな特徴の変化によって主に引き起こされ,事前学習と画像拡張によるソース・ドメイン上のより一般的な特徴の学習が,その後のタスクにおける効率的な機能の再利用につながることが示唆された。
これらの知見は,効果的な連続学習アルゴリズムのための一般化機能を促進する手法の重要性を強調した。
関連論文リスト
- Domain-incremental Cardiac Image Segmentation with Style-oriented Replay
and Domain-sensitive Feature Whitening [67.6394526631557]
M&Mは、各受信データセットから漸進的に学習し、時間が経つにつれて改善された機能で漸進的に更新する必要がある。
医学的シナリオでは、データのプライバシのため、過去のデータへのアクセスや保存が一般的に許可されないため、これは特に困難である。
本稿では,まず過去のドメイン入力を復元し,モデル最適化中に定期的に再生する新しいドメイン増分学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-09T13:07:36Z) - Forget Less, Count Better: A Domain-Incremental Self-Distillation
Learning Benchmark for Lifelong Crowd Counting [51.44987756859706]
オフザシェルフ法は複数のドメインを扱うのにいくつかの欠点がある。
生涯クラウドカウンティングは、壊滅的な忘れを緩和し、一般化能力を改善することを目的としている。
論文 参考訳(メタデータ) (2022-05-06T15:37:56Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [86.02012896014095]
本稿では,ラベル付きソースドメインと非ラベル付きターゲットドメインのシーケンスでモデルを提示する連続的なドメイン適応の問題について検討する。
障害を解決するため,グラディエント正規化コントラスト学習(GRCL)を提案する。
Digits、DomainNet、Office-Caltechベンチマークの実験は、我々のアプローチの強力なパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-03-23T04:10:42Z) - Learning a Domain-Agnostic Visual Representation for Autonomous Driving
via Contrastive Loss [25.798361683744684]
ドメイン認識コントラスト学習(Domain-Agnostic Contrastive Learning、DACL)は、2段階の非監視ドメイン適応フレームワークである。
提案手法は,従来の最新手法に比べ,単眼深度推定作業における性能向上を実現した。
論文 参考訳(メタデータ) (2021-03-10T07:06:03Z) - Studying Catastrophic Forgetting in Neural Ranking Models [3.8596788671326947]
ニューラルランキングモデルは、新しい知識を得た後、これまで観測された領域から得られた古い知識を破滅的に忘れる程度に研究する。
ニューラルIRランキングモデルの有効性は破滅的忘れのコストで達成できることを示した。
得られた結果は、神経IRにおける理論的および実用的な将来の作業に有用であると考えます。
論文 参考訳(メタデータ) (2021-01-18T10:42:57Z) - Domain Adaptation on Semantic Segmentation for Aerial Images [3.946367634483361]
セマンティックイメージセグメンテーションにおける領域シフトに対処する、新しい教師なしドメイン適応フレームワークを提案する。
また、ターゲット領域にエントロピー最小化を適用し、高信頼な予測を生成する。
様々な指標を用いて最先端手法の改善を示す。
論文 参考訳(メタデータ) (2020-12-03T20:58:27Z) - Domain Adaptation of Learned Features for Visual Localization [60.6817896667435]
日時,天気,季節などの変化条件下での視覚的局所化の問題に対処する。
近年の深層ニューラルネットワークに基づく学習された局所的特徴は、古典的な手作りの局所的特徴よりも優れた性能を示している。
ドメインギャップを減らすために、いくつかの例しか必要としない、斬新で実践的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:17:32Z) - Gradient Regularized Contrastive Learning for Continual Domain
Adaptation [26.21464286134764]
本研究では、ラベル付きソースドメインとラベルなしターゲットドメインのシーケンスをモデルに提示する連続的なドメイン適応の問題について検討する。
本研究では,これらの障害を解決するために,グラディエント正規化コントラスト学習を提案する。
本手法は,ラベル付きソースドメインとラベル付きターゲットドメインを併用することにより,意味的識別性とドメイン不変性の両方を共同で学習することができる。
論文 参考訳(メタデータ) (2020-07-25T14:30:03Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。