論文の概要: Incremental Open-set Domain Adaptation
- arxiv url: http://arxiv.org/abs/2409.00530v1
- Date: Sat, 31 Aug 2024 19:37:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 14:18:10.753739
- Title: Incremental Open-set Domain Adaptation
- Title(参考訳): インクリメンタルオープンセットドメイン適応
- Authors: Sayan Rakshit, Hmrishav Bandyopadhyay, Nibaran Das, Biplab Banerjee,
- Abstract要約: 破滅的な忘れは、視覚領域を連続的に学習する際にニューラルネットワークモデルを不安定にする。
我々は、画像分類のための忘れやすい漸進的学習戦略を開発する。
- 参考スコア(独自算出の注目度): 27.171935835686117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Catastrophic forgetting makes neural network models unstable when learning visual domains consecutively. The neural network model drifts to catastrophic forgetting-induced low performance of previously learnt domains when training with new domains. We illuminate this current neural network model weakness and develop a forgetting-resistant incremental learning strategy. Here, we propose a new unsupervised incremental open-set domain adaptation (IOSDA) issue for image classification. Open-set domain adaptation adds complexity to the incremental domain adaptation issue since each target domain has more classes than the Source domain. In IOSDA, the model learns training with domain streams phase by phase in incremented time. Inference uses test data from all target domains without revealing their identities. We proposed IOSDA-Net, a two-stage learning pipeline, to solve the problem. The first module replicates prior domains from random noise using a generative framework and creates a pseudo source domain. In the second step, this pseudo source is adapted to the present target domain. We test our model on Office-Home, DomainNet, and UPRN-RSDA, a newly curated optical remote sensing dataset.
- Abstract(参考訳): 破滅的な忘れは、視覚領域を連続的に学習する際にニューラルネットワークモデルを不安定にする。
ニューラルネットワークモデルは、新しいドメインでトレーニングする際に、前学習したドメインの破滅的な忘れがちな低パフォーマンスにドリフトする。
我々は、この現在のニューラルネットワークモデルの弱点を照明し、忘れがちなインクリメンタルラーニング戦略を開発する。
本稿では、画像分類のための新しい教師なしインクリメンタルオープンセットドメイン適応(IOSDA)を提案する。
オープンセットドメイン適応は、各ターゲットドメインがソースドメインよりも多くのクラスを持っているため、インクリメンタルドメイン適応の問題に複雑さを追加します。
IOSDAでは、モデルは増分時間で段階的にドメインストリームによるトレーニングを学ぶ。
推論は、そのIDを明らかにすることなく、すべてのターゲットドメインのテストデータを使用する。
この問題を解決するために,2段階学習パイプラインであるIOSDA-Netを提案した。
最初のモジュールは、生成フレームワークを使用して、ランダムノイズから前のドメインを複製し、擬似ソースドメインを生成する。
第2ステップでは、この疑似ソースを現在のターゲットドメインに適合させる。
我々は、新たにキュレートされた光リモートセンシングデータセットであるOffice-Home、DomainNet、UPRN-RSDAでモデルを検証した。
関連論文リスト
- Domain Adaptation from Scratch [24.612696638386623]
我々は、NLPを機密ドメインに拡張するために欠かせない、新しい学習セットである「スクラッチからのドメイン適応」を提示する。
この設定では、トレーニングされたモデルがセンシティブなターゲットドメイン上でうまく動作するように、ソースドメインの集合からのデータを効率的にアノテートすることを目的としている。
本研究は、データ選択やドメイン適応アルゴリズムからアクティブな学習パラダイムまで、この挑戦的な設定に対するいくつかのアプローチを比較した。
論文 参考訳(メタデータ) (2022-09-02T05:55:09Z) - Forget Less, Count Better: A Domain-Incremental Self-Distillation
Learning Benchmark for Lifelong Crowd Counting [51.44987756859706]
オフザシェルフ法は複数のドメインを扱うのにいくつかの欠点がある。
生涯クラウドカウンティングは、壊滅的な忘れを緩和し、一般化能力を改善することを目的としている。
論文 参考訳(メタデータ) (2022-05-06T15:37:56Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - Domain-Invariant Proposals based on a Balanced Domain Classifier for
Object Detection [8.583307102907295]
画像からのオブジェクト認識は、興味のあるオブジェクトを自動的に見つけ、カテゴリと位置情報を返すことを意味する。
畳み込みニューラルネットワーク(CNN)や生成的敵ネットワークといった深層学習の研究により、この分野のパフォーマンスは大幅に改善された。
分布のミスマッチ、すなわちドメインシフトは、大幅なパフォーマンス低下につながります。
論文 参考訳(メタデータ) (2022-02-12T00:21:27Z) - FRIDA -- Generative Feature Replay for Incremental Domain Adaptation [34.00059350161178]
FRIDA(Feature Based Incremental Domain Adaptation)と呼ばれる新しいフレームワークを提案する。
ドメインアライメントのために,DANN-IBと呼ばれる,一般的なドメイン対向ニューラルネットワーク(DANN)の簡単な拡張を提案する。
Office-Home、Office-CalTech、DomainNetデータセットの実験結果は、FRIDAが文献よりも優れた安定性と塑性のトレードオフを維持していることを確認した。
論文 参考訳(メタデータ) (2021-12-28T22:24:32Z) - Self-supervised Autoregressive Domain Adaptation for Time Series Data [9.75443057146649]
教師なしドメイン適応(UDA)は、視覚アプリケーションにおけるドメインシフト問題にうまく対処している。
これらの手法は、以下の理由により時系列データのパフォーマンスが制限される可能性がある。
本稿では,これらの制約に対処するための自己監督型自己回帰ドメイン適応(SLARDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-29T08:17:23Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Dynamic Transfer for Multi-Source Domain Adaptation [82.54405157719641]
モデルパラメータがサンプルに適合する領域の競合に対処するために動的転送を提案する。
ソースドメインの障壁を壊し、マルチソースドメインを単一ソースドメインに変換する。
実験の結果, ドメインラベルを使わずに, 動的移動は最先端の手法よりも3%以上優れていた。
論文 参考訳(メタデータ) (2021-03-19T01:22:12Z) - Deep Domain-Adversarial Image Generation for Domain Generalisation [115.21519842245752]
マシンラーニングモデルは通常、ソースデータセットでトレーニングされたり、異なるディストリビューションのターゲットデータセットで評価されたりする際に、ドメインシフトの問題に悩まされる。
この問題を解決するために、ドメイン一般化(DG)手法は、訓練されたモデルが未知のドメインに一般化できるように、複数のソースドメインからのデータを活用することを目的としている。
我々はemphDeep Domain-Adversarial Image Generation (DDAIG)に基づく新しいDG手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T23:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。