論文の概要: FRIDA -- Generative Feature Replay for Incremental Domain Adaptation
- arxiv url: http://arxiv.org/abs/2112.14316v1
- Date: Tue, 28 Dec 2021 22:24:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-31 01:03:52.808243
- Title: FRIDA -- Generative Feature Replay for Incremental Domain Adaptation
- Title(参考訳): FRIDA -- インクリメンタルドメイン適応のための生成機能リプレイ
- Authors: Sayan Rakshit, Anwesh Mohanty, Ruchika Chavhan, Biplab Banerjee, Gemma
Roig, Subhasis Chaudhuri
- Abstract要約: FRIDA(Feature Based Incremental Domain Adaptation)と呼ばれる新しいフレームワークを提案する。
ドメインアライメントのために,DANN-IBと呼ばれる,一般的なドメイン対向ニューラルネットワーク(DANN)の簡単な拡張を提案する。
Office-Home、Office-CalTech、DomainNetデータセットの実験結果は、FRIDAが文献よりも優れた安定性と塑性のトレードオフを維持していることを確認した。
- 参考スコア(独自算出の注目度): 34.00059350161178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We tackle the novel problem of incremental unsupervised domain adaptation
(IDA) in this paper. We assume that a labeled source domain and different
unlabeled target domains are incrementally observed with the constraint that
data corresponding to the current domain is only available at a time. The goal
is to preserve the accuracies for all the past domains while generalizing well
for the current domain. The IDA setup suffers due to the abrupt differences
among the domains and the unavailability of past data including the source
domain. Inspired by the notion of generative feature replay, we propose a novel
framework called Feature Replay based Incremental Domain Adaptation (FRIDA)
which leverages a new incremental generative adversarial network (GAN) called
domain-generic auxiliary classification GAN (DGAC-GAN) for producing
domain-specific feature representations seamlessly. For domain alignment, we
propose a simple extension of the popular domain adversarial neural network
(DANN) called DANN-IB which encourages discriminative domain-invariant and
task-relevant feature learning. Experimental results on Office-Home,
Office-CalTech, and DomainNet datasets confirm that FRIDA maintains superior
stability-plasticity trade-off than the literature.
- Abstract(参考訳): 本稿では,漸進的非教師付きドメイン適応(IDA)の新たな課題に取り組む。
ラベル付きソースドメインと異なるラベル付きターゲットドメインは、現在のドメインに対応するデータが一度にしか利用できないという制約で漸進的に観測されると仮定する。
目標は、現在のドメインをうまく一般化しながら、過去のすべてのドメインのアキュラティを維持することです。
IDAセットアップは、ドメイン間の急激な違いと、ソースドメインを含む過去のデータの有効性に悩まされている。
生成機能リプレイの概念に触発されて,ドメイン固有の特徴表現をシームレスに生成するために,ドメインジェネリック補助分類GAN(DGAC-GAN)と呼ばれる新たなインクリメンタル・ジェネレーティブ・逆境ネットワーク(GAN)を活用する,特徴再生ベースのインクリメンタル・ドメイン適応(FRIDA)という新しいフレームワークを提案する。
ドメインアライメントのために、DANN-IBと呼ばれる一般的なドメイン敵ニューラルネットワーク(DANN)の単純な拡張を提案し、識別的ドメイン不変性とタスク関連特徴学習を促進する。
Office-Home、Office-CalTech、DomainNetデータセットの実験結果は、FRIDAが文献よりも優れた安定性-塑性トレードオフを維持していることを確認した。
関連論文リスト
- DomainVerse: A Benchmark Towards Real-World Distribution Shifts For
Tuning-Free Adaptive Domain Generalization [27.099706316752254]
我々はAdaptive Domain Generalization (ADG)のための新しいデータセットDomainVerseを確立する。
DomainVerseは、導入した階層的なドメインシフトの定義に相応しく、390のきめ細かい現実的なドメインから約0.5万の画像で構成されている。
チューニング不要適応型ドメイン一般化のためのDomain CLIPとDomain++ CLIPという2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-05T07:10:25Z) - Adversarial Bi-Regressor Network for Domain Adaptive Regression [52.5168835502987]
ドメインシフトを軽減するために、クロスドメインレグレッタを学ぶことが不可欠です。
本稿では、より効果的なドメイン間回帰モデルを求めるために、ABRNet(Adversarial Bi-Regressor Network)を提案する。
論文 参考訳(メタデータ) (2022-09-20T18:38:28Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - Discovering Domain Disentanglement for Generalized Multi-source Domain
Adaptation [48.02978226737235]
典型的なマルチソースドメイン適応(MSDA)アプローチは、ラベル付きソースドメインから学習した知識をラベル付きターゲットドメインに転送することを目的としている。
本稿では、各インスタンスのドメイン表現と意味的特徴を分割し、次元的独立性を奨励する変動型ドメイン・アンタングルメント(VDD)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-11T04:33:08Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z) - Domain-Augmented Domain Adaptation [5.292532408558036]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識伝達を可能にする。
本稿では,ドメイン拡張ドメイン適応(DADA)を提案し,ターゲットドメインとの差が小さい擬似ドメインを生成する。
4つのベンチマークデータセット上で、最先端のドメイン適応手法による広範な実験を行う。
論文 参考訳(メタデータ) (2022-02-21T05:42:02Z) - Self-Adversarial Disentangling for Specific Domain Adaptation [52.1935168534351]
ドメイン適応は、ソースとターゲットドメイン間のドメインシフトをブリッジすることを目的としています。
最近の手法では、特定の次元について明示的な事前知識を考慮しないのが一般的である。
論文 参考訳(メタデータ) (2021-08-08T02:36:45Z) - Disentanglement-based Cross-Domain Feature Augmentation for Effective
Unsupervised Domain Adaptive Person Re-identification [87.72851934197936]
Unsupervised Domain Adaptive (UDA) Person Re-identification (ReID) は、ラベル付きソースドメインからラベル付きターゲットドメインへ知識を転送することを目的としている。
ひとつの課題は、トレーニング用に信頼できるラベルでターゲットドメインサンプルを生成する方法だ。
ディスタングルメントに基づくクロスドメイン機能拡張戦略を提案する。
論文 参考訳(メタデータ) (2021-03-25T15:28:41Z) - Re-energizing Domain Discriminator with Sample Relabeling for
Adversarial Domain Adaptation [88.86865069583149]
Unsupervised Domain Adapt (UDA)メソッドは、ドメインの競合トレーニングを利用して、機能を調整してドメインのギャップを減らす。
本研究では,Re-enforceable Adversarial Domain Adaptation (RADA) と呼ばれる効率的な最適化戦略を提案する。
RADAは、動的ドメインラベルを使用して、トレーニング中にドメイン識別器を再活性化することを目指しています。
論文 参考訳(メタデータ) (2021-03-22T08:32:55Z) - Unsupervised Disentanglement GAN for Domain Adaptive Person
Re-Identification [10.667492516216887]
本稿では、教師付き人物ReIDのドメイン適応問題に対処するため、新しい非教師付き非教師付き逆境生成ネットワーク(UD-GAN)を提案する。
我々のフレームワークは、識別アノテーションを用いて、ソースラベル付きドメインにおける識別的特徴抽出のためのReIDネットワークを共同で訓練する。
その結果、ReID機能は、教師なしドメイン内の人物のアイデンティティをよりよく含みます。
論文 参考訳(メタデータ) (2020-07-30T16:07:05Z) - Unsupervised Domain Expansion from Multiple Sources [39.03086451203708]
本稿では、ソースドメインの事前学習モデルと未学習の新規ドメインデータのみを利用できる、教師なしマルチソースドメイン拡張(UMSDE)手法を提案する。
本稿では、異なるソースモデルが生成する新しいドメインにおける未ラベルデータの予測クラス確率を用いて、ドメイン間のバイアスを和らげ、新しいドメインにおける識別情報を活用し、ソースドメインのパフォーマンスを維持することを提案する。
論文 参考訳(メタデータ) (2020-05-26T07:02:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。