論文の概要: Multi-Source Domain Adaptation meets Dataset Distillation through
Dataset Dictionary Learning
- arxiv url: http://arxiv.org/abs/2309.07666v1
- Date: Thu, 14 Sep 2023 12:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 14:56:32.189377
- Title: Multi-Source Domain Adaptation meets Dataset Distillation through
Dataset Dictionary Learning
- Title(参考訳): マルチソースドメイン適応はデータセット辞書学習によるデータセット蒸留に適合する
- Authors: Eduardo Fernandes Montesuma, Fred Ngol\`e Mboula, Antoine Souloumiac
- Abstract要約: 機械学習における2つの問題:マルチソースドメイン適応(MSDA)とデータセット蒸留(DD)の交差点を考える。
我々は,従来のMSDA文献,例えばWasserstein Barycenter TransportやDictionary Learning,DDメソッドの分散マッチングに適応する。
クラスごとのサンプルが1つも少ない場合でも、最先端の適応性能が得られることを示す。
- 参考スコア(独自算出の注目度): 5.9999394828348755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the intersection of two problems in machine
learning: Multi-Source Domain Adaptation (MSDA) and Dataset Distillation (DD).
On the one hand, the first considers adapting multiple heterogeneous labeled
source domains to an unlabeled target domain. On the other hand, the second
attacks the problem of synthesizing a small summary containing all the
information about the datasets. We thus consider a new problem called MSDA-DD.
To solve it, we adapt previous works in the MSDA literature, such as
Wasserstein Barycenter Transport and Dataset Dictionary Learning, as well as DD
method Distribution Matching. We thoroughly experiment with this novel problem
on four benchmarks (Caltech-Office 10, Tennessee-Eastman Process, Continuous
Stirred Tank Reactor, and Case Western Reserve University), where we show that,
even with as little as 1 sample per class, one achieves state-of-the-art
adaptation performance.
- Abstract(参考訳): 本稿では,機械学習における2つの課題であるマルチソースドメイン適応(MSDA)とデータセット蒸留(DD)の交差点について考察する。
一つは、複数の不均一なラベル付きソースドメインをラベルなしのターゲットドメインに適応させることである。
一方、第2の問題はデータセットに関するすべての情報を含む小さな要約を合成することである。
そこで我々はMSDA-DDと呼ばれる新しい問題を考える。
そこで我々は,従来のMSDA文献,例えばWasserstein Barycenter Transport and Dataset Dictionary Learning,およびDDメソッドの分散マッチングに適用した。
この問題を4つのベンチマーク(caltech-office 10, tennessee-eastman process, continuous stirred tank reactor, case western reserve university)で徹底的に実験し,1クラスあたりのサンプル数が最大でも最先端の適応性能が得られることを示した。
関連論文リスト
- Multi-Source Domain Adaptation through Dataset Dictionary Learning in
Wasserstein Space [5.9999394828348755]
辞書学習と最適輸送に基づく新しいマルチソースドメイン適応(MSDA)フレームワークを提案する。
対象ドメインのラベル付きサンプルを再構成したDaDil-Rと,原子分布から学習した分類器のアンサンブルに基づくDaDiL-Eの2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T15:46:59Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Domain Alignment Meets Fully Test-Time Adaptation [24.546705919244936]
デプロイされたMLモデルの基本的な要件は、トレーニングとは異なるテストディストリビューションから引き出されたデータに一般化することである。
本稿では,元のソースデータへのアクセスを制限した,この問題の難易度に焦点をあてる。
ソースデータ全体にアクセスする必要性を緩和し,UDAとFTTAを橋渡しする新しいアプローチCATTAnを提案する。
論文 参考訳(メタデータ) (2022-07-09T03:17:19Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - Semi-supervised Domain Adaptation via Sample-to-Sample Self-Distillation [30.556465364799948]
半教師付きドメイン適応(Semi-supervised domain adapt, SSDA)とは、学習者がソースドメイン上に大きなラベル付きデータセットが与えられたときに、ラベル付きサンプルの小さなセットだけで新しいドメインに適応することである。
本稿では,サンプル対を用いた自己蒸留を用いて,対象領域にモデルを適応させる,ペアベースのSSDA法を提案する。
論文 参考訳(メタデータ) (2021-11-29T07:13:36Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - mDALU: Multi-Source Domain Adaptation and Label Unification with Partial
Datasets [102.62639692656458]
本稿では,この課題をマルチソースドメイン適応とラベル統一の問題として扱う。
本手法は,部分教師あり適応段階と完全教師あり適応段階からなる。
本手法は,画像分類,2次元意味画像分割,ジョイント2d-3d意味セグメンテーションの3つのタスクで検証する。
論文 参考訳(メタデータ) (2020-12-15T15:58:03Z) - Online Meta-Learning for Multi-Source and Semi-Supervised Domain
Adaptation [4.1799778475823315]
本稿では,既存のDAアルゴリズムの初期条件をメタラーニングすることで,性能向上のためのフレームワークを提案する。
マルチソース非教師付きドメイン適応(MSDA)と半教師付きドメイン適応(SSDA)の両方の変種を提示する。
最大規模のDomainNetを含む,いくつかのDAベンチマークで得られた成果を報告する。
論文 参考訳(メタデータ) (2020-04-09T07:48:22Z) - Multi-source Domain Adaptation in the Deep Learning Era: A Systematic
Survey [53.656086832255944]
マルチソースドメイン適応(MDA)は、ラベル付きデータを複数のソースから収集できる強力な拡張である。
MDAは学術と産業の両方で注目を集めている。
論文 参考訳(メタデータ) (2020-02-26T08:07:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。