論文の概要: Towards Data-Free Domain Generalization
- arxiv url: http://arxiv.org/abs/2110.04545v1
- Date: Sat, 9 Oct 2021 11:44:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 15:52:51.488565
- Title: Towards Data-Free Domain Generalization
- Title(参考訳): データフリードメイン一般化に向けて
- Authors: Ahmed Frikha, Haokun Chen, Denis Krompa{\ss}, Thomas Runkler, Volker
Tresp
- Abstract要約: 異なるソースデータドメインでトレーニングされたモデルに含まれる知識は、どのようにして単一のモデルにマージされるのか?
以前のドメインの一般化手法は、典型的にはソースドメインデータの使用に依存しており、プライベートな分散データには適さない。
DeKANは、利用可能な教師モデルからドメイン固有の知識を抽出し、融合し、ドメインシフトに頑健な学生モデルに変換するアプローチである。
- 参考スコア(独自算出の注目度): 12.269045654957765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we investigate the unexplored intersection of domain
generalization and data-free learning. In particular, we address the question:
How can knowledge contained in models trained on different source data domains
can be merged into a single model that generalizes well to unseen target
domains, in the absence of source and target domain data? Machine learning
models that can cope with domain shift are essential for for real-world
scenarios with often changing data distributions. Prior domain generalization
methods typically rely on using source domain data, making them unsuitable for
private decentralized data. We define the novel problem of Data-Free Domain
Generalization (DFDG), a practical setting where models trained on the source
domains separately are available instead of the original datasets, and
investigate how to effectively solve the domain generalization problem in that
case. We propose DEKAN, an approach that extracts and fuses domain-specific
knowledge from the available teacher models into a student model robust to
domain shift. Our empirical evaluation demonstrates the effectiveness of our
method which achieves first state-of-the-art results in DFDG by significantly
outperforming ensemble and data-free knowledge distillation baselines.
- Abstract(参考訳): 本研究では,領域一般化とデータ自由学習の非探索的交わりについて検討する。
異なるソースデータドメインでトレーニングされたモデルに含まれる知識は、ソースデータとターゲットドメインデータがない場合に、対象とするドメインによく一般化する単一のモデルにマージできるだろうか?
ドメインシフトに対処可能な機械学習モデルは、データ分散が頻繁に変化する現実世界のシナリオに不可欠である。
事前ドメインの一般化メソッドは、典型的にはソースドメインデータを使用しており、プライベートな分散データには適さない。
本研究では,データ自由領域一般化(DFDG)の新たな課題を定義し,元となるデータセットの代わりに,ソースドメインで個別にトレーニングされたモデルが利用可能となる実践的環境を定義し,その場合のドメイン一般化問題を効果的に解く方法について検討する。
本稿では,利用可能な教師モデルからドメイン固有の知識を抽出・融合する手法であるdekanを提案する。
実験により,本手法の有効性を実証し,本手法がDFDGにおける第1次最先端結果をもたらすことを示す。
関連論文リスト
- Non-stationary Domain Generalization: Theory and Algorithm [11.781050299571692]
本稿では,非定常環境における領域一般化について検討する。
まず,環境非定常性がモデル性能に及ぼす影響について検討する。
そこで我々は適応不変表現学習に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-10T21:32:43Z) - DIGIC: Domain Generalizable Imitation Learning by Causal Discovery [69.13526582209165]
因果性は機械学習と組み合わせて、ドメインの一般化のための堅牢な表現を生成する。
我々は、実証データ分布を活用して、ドメインの一般化可能なポリシーの因果的特徴を発見するために、異なる試みを行っている。
DIGICと呼ばれる新しいフレームワークを設計し、実演データ分布から専門家行動の直接的な原因を見出すことにより因果的特徴を識別する。
論文 参考訳(メタデータ) (2024-02-29T07:09:01Z) - Federated Domain Generalization: A Survey [12.84261944926547]
機械学習では、データはさまざまなデバイス、組織、エッジノードに分散されることが多い。
この課題に応えて、連邦領域の一般化への関心が高まっている。
本稿では,この領域における最近の進歩に関する最初の調査について述べる。
論文 参考訳(メタデータ) (2023-06-02T07:55:42Z) - On Certifying and Improving Generalization to Unseen Domains [87.00662852876177]
ドメインの一般化は、テスト時に遭遇した見知らぬドメインのパフォーマンスが高いモデルを学ぶことを目的としています。
いくつかのベンチマークデータセットを使用して、DGアルゴリズムを包括的に評価することは困難である。
我々は,任意のDG手法の最悪の性能を効率的に証明できる普遍的な認証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-24T16:29:43Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Self-balanced Learning For Domain Generalization [64.99791119112503]
ドメインの一般化は、モデルが未知の統計を持つ対象のドメインに一般化できるように、マルチドメインのソースデータの予測モデルを学ぶことを目的としている。
既存のアプローチのほとんどは、ソースデータがドメインとクラスの両方の観点からバランスよく調整されているという前提の下で開発されている。
本稿では,多領域ソースデータの分布の違いによるバイアスを軽減するために,損失の重み付けを適応的に学習する自己均衡型領域一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-31T03:17:54Z) - Generalizable Person Re-identification with Relevance-aware Mixture of
Experts [45.13716166680772]
我々はRaMoE(Relevance-Aware Mixed of Expert)と呼ばれる新しい手法を提案する。
RaMoEは、効率的な投票に基づく混合メカニズムを使用して、モデル一般化を改善するために、ソースドメインの様々な特性を動的に活用する。
対象ドメインの学習時の視認性を考慮し,新たな学習学習アルゴリズムと関係アライメント損失を組み合わせることで,投票ネットワークを更新する手法を提案する。
論文 参考訳(メタデータ) (2021-05-19T14:19:34Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Learning causal representations for robust domain adaptation [31.261956776418618]
多くの現実世界のアプリケーションでは、ターゲットのドメインデータが常に利用できるとは限らない。
本稿では,学習段階において対象ドメインデータが利用できない場合について検討する。
本稿では,深層オートエンコーダと因果構造学習を統一モデルに統合したCausal AutoEncoder (CAE)を提案する。
論文 参考訳(メタデータ) (2020-11-12T11:24:03Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。