論文の概要: Federated Dataset Dictionary Learning for Multi-Source Domain Adaptation
- arxiv url: http://arxiv.org/abs/2309.07670v2
- Date: Wed, 8 Nov 2023 09:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 19:12:57.605004
- Title: Federated Dataset Dictionary Learning for Multi-Source Domain Adaptation
- Title(参考訳): 多元ドメイン適応のためのフェデレーションデータセット辞書学習
- Authors: Fabiola Espinoza Castellon, Eduardo Fernandes Montesuma, Fred Ngol\`e
Mboula, Aur\'elien Mayoue, Antoine Souloumiac, C\'edric Gouy-Pailler
- Abstract要約: 我々の設定では、クライアントの分布は特定のドメインを表し、FedDaDiLは経験的分布の連合辞書をまとめて訓練する。
選択されたプロトコルは、クライアントのデータをプライベートに保ち、中央集権的なプロトコルに比べて全体的なプライバシを向上させる。
提案手法はCaltech-Office, (ii) TEP, (iii) CWRUベンチマークを用いて, 対象領域のラベル付きデータの生成に成功したことを実証的に実証した。
- 参考スコア(独自算出の注目度): 4.83134644882906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this article, we propose an approach for federated domain adaptation, a
setting where distributional shift exists among clients and some have unlabeled
data. The proposed framework, FedDaDiL, tackles the resulting challenge through
dictionary learning of empirical distributions. In our setting, clients'
distributions represent particular domains, and FedDaDiL collectively trains a
federated dictionary of empirical distributions. In particular, we build upon
the Dataset Dictionary Learning framework by designing collaborative
communication protocols and aggregation operations. The chosen protocols keep
clients' data private, thus enhancing overall privacy compared to its
centralized counterpart. We empirically demonstrate that our approach
successfully generates labeled data on the target domain with extensive
experiments on (i) Caltech-Office, (ii) TEP, and (iii) CWRU benchmarks.
Furthermore, we compare our method to its centralized counterpart and other
benchmarks in federated domain adaptation.
- Abstract(参考訳): 本稿では,クライアント間で分散シフトがあり,ラベルのないデータが存在する,フェデレートされたドメイン適応のためのアプローチを提案する。
提案するフレームワークであるFedDaDiLは、経験的分布の辞書学習を通じて得られた課題に取り組む。
我々の設定では、クライアントの分布は特定のドメインを表し、FedDaDiLは経験分布の連合辞書を集合的に訓練する。
特に,協調通信プロトコルとアグリゲーション操作を設計することにより,データセット辞書学習フレームワークを構築した。
選択されたプロトコルは、クライアントのデータをプライベートに保ち、中央集権的なプロトコルに比べて全体的なプライバシを向上させる。
実験により,本手法が対象領域のラベル付きデータの生成に有効であることを示す。
(i)カルテック事務所
(ii)tep、及び
(iii)CWRUベンチマーク。
さらに,本手法を,フェデレーションドメイン適応における集中型と他のベンチマークと比較した。
関連論文リスト
- FACT: Federated Adversarial Cross Training [0.0]
Federated Adrial Cross Training (FACT)は、ソースクライアント間の暗黙のドメイン差を利用して、ターゲットドメイン内のドメインシフトを特定する。
我々は、FACTが最先端のフェデレーション、非フェデレーション、およびソースフリードメイン適応モデルより優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-06-01T12:25:43Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Multi-level Consistency Learning for Semi-supervised Domain Adaptation [85.90600060675632]
半教師付きドメイン適応(SSDA)は、完全にラベル付けされたソースドメインから学習した知識をわずかにラベル付けされたターゲットドメインに適用することを目的としている。
SSDAのための多レベル一貫性学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-09T06:41:18Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Federated Learning with Domain Generalization [11.92860245410696]
フェデレートラーニング(Federated Learning)は、集中型サーバの助けを借りて、機械学習モデルを共同でトレーニングすることを可能にする。
実際には、複数のソースドメイン上でトレーニングされたモデルは、目に見えないターゲットドメイン上での一般化性能が劣る可能性がある。
我々は,フェデレート学習とドメイン一般化能力の両立を図り,FedADGを提案する。
論文 参考訳(メタデータ) (2021-11-20T01:02:36Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Curriculum CycleGAN for Textual Sentiment Domain Adaptation with
Multiple Sources [68.31273535702256]
我々は,C-CycleGAN(C-CycleGAN)という,新しいインスタンスレベルのMDAフレームワークを提案する。
C-CycleGANは、(1)異なるドメインからのテキスト入力を連続的な表現空間にエンコードする事前訓練されたテキストエンコーダ、(2)ソースとターゲットドメイン間のギャップを埋めるカリキュラムインスタンスレベルの適応を伴う中間ドメインジェネレータ、(3)中間ドメインで最終感情分類のために訓練されたタスク分類器の3つのコンポーネントから構成される。
3つのベンチマークデータセットに対して広範な実験を行い、最先端のDAアプローチよりも大幅に向上した。
論文 参考訳(メタデータ) (2020-11-17T14:50:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。