論文の概要: Dataset Dictionary Learning in a Wasserstein Space for Federated Domain Adaptation
- arxiv url: http://arxiv.org/abs/2407.11647v1
- Date: Tue, 16 Jul 2024 12:13:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 15:11:54.875948
- Title: Dataset Dictionary Learning in a Wasserstein Space for Federated Domain Adaptation
- Title(参考訳): フェデレーションドメイン適応のためのワッサーシュタイン空間におけるデータセット辞書学習
- Authors: Eduardo Fernandes Montesuma, Fabiola Espinoza Castellon, Fred Ngolè Mboula, Aurélien Mayoue, Antoine Souloumiac, Cédric Gouy-Pailler,
- Abstract要約: マルチソースドメイン適応(MSDA、Multi-Source Domain Adaptation)は、複数の関連する異種ソースデータセットをラベル付けされていないターゲットデータセットに適合させるという、難しいシナリオである。
我々の研究は、この課題に対処するために、分散データセット辞書学習という新しいアプローチを提案する。
我々のアルゴリズムは、各クライアントの基盤となる分布を、プライベートなバリ中心座標によって重み付けされたパブリック原子のワッサーシュタインバリセンタとして表現する。
- 参考スコア(独自算出の注目度): 5.024690447177142
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Multi-Source Domain Adaptation (MSDA) is a challenging scenario where multiple related and heterogeneous source datasets must be adapted to an unlabeled target dataset. Conventional MSDA methods often overlook that data holders may have privacy concerns, hindering direct data sharing. In response, decentralized MSDA has emerged as a promising strategy to achieve adaptation without centralizing clients' data. Our work proposes a novel approach, Decentralized Dataset Dictionary Learning, to address this challenge. Our method leverages Wasserstein barycenters to model the distributional shift across multiple clients, enabling effective adaptation while preserving data privacy. Specifically, our algorithm expresses each client's underlying distribution as a Wasserstein barycenter of public atoms, weighted by private barycentric coordinates. Our approach ensures that the barycentric coordinates remain undisclosed throughout the adaptation process. Extensive experimentation across five visual domain adaptation benchmarks demonstrates the superiority of our strategy over existing decentralized MSDA techniques. Moreover, our method exhibits enhanced robustness to client parallelism while maintaining relative resilience compared to conventional decentralized MSDA methodologies.
- Abstract(参考訳): マルチソースドメイン適応(MSDA、Multi-Source Domain Adaptation)は、複数の関連する異種ソースデータセットをラベル付けされていないターゲットデータセットに適合させるという、難しいシナリオである。
従来のMSDAメソッドは、データ保持者がプライバシーを懸念し、直接的なデータ共有を妨げる可能性があることをしばしば見落としている。
これに対し、分散化MSDAは、クライアントのデータを集中化せずに適応を実現するための有望な戦略として登場した。
本研究は,この課題に対処するために,分散データセット辞書学習という新しいアプローチを提案する。
本手法は,複数のクライアント間の分散シフトをモデル化するためにWasserstein Barycentersを活用し,データプライバシを保ちながら効果的な適応を可能にする。
具体的には、我々のアルゴリズムは、各クライアントの基本的な分布を、プライベートなバリ中心座標によって重み付けされた、パブリックな原子のワッサーシュタインバリセンタとして表現する。
我々のアプローチは、適応過程を通してバリ中心座標が未公表であることを保証する。
5つのビジュアルドメイン適応ベンチマークによる大規模な実験は、既存の分散MSDA技術よりも、我々の戦略が優れていることを示す。
さらに,本手法は従来の分散MSDA手法と比較して相対的なレジリエンスを維持しつつ,クライアント並列性に対する堅牢性を向上する。
関連論文リスト
- Privacy Preserving Federated Unsupervised Domain Adaptation with Application to Age Prediction from DNA Methylation Data [2.699900017799093]
高次元設定における教師なしドメイン適応のためのプライバシ保護フレームワークを提案する。
我々のフレームワークは、フェデレートされた環境における高次元ドメイン適応のための最初のプライバシ保護ソリューションである。
論文 参考訳(メタデータ) (2024-11-26T10:19:16Z) - Personalized Federated Learning for Cross-view Geo-localization [49.40531019551957]
本稿では,フェデレート・ラーニング (FL) とクロスビュー・イメージ・ジオローカライゼーション (CVGL) 技術を組み合わせた方法論を提案する。
提案手法では, クライアントが粗い特徴抽出器のみを共有しながら, 局所環境に特有のきめ細かな特徴を保持する, 粗い特徴抽出器を実装している。
その結果,フェデレートCVGL法は,データプライバシを維持しつつ,集中的なトレーニングに近い性能を実現することができた。
論文 参考訳(メタデータ) (2024-11-07T13:25:52Z) - Subject-Based Domain Adaptation for Facial Expression Recognition [51.10374151948157]
ディープラーニングモデルを特定の対象個人に適用することは、難しい表情認識タスクである。
本稿では、FERにおける主観的ドメイン適応のための新しいMSDA手法を提案する。
複数の情報源からの情報を効率的に利用して、ディープFERモデルを単一のターゲット個人に適応させる。
論文 参考訳(メタデータ) (2023-12-09T18:40:37Z) - Memory Consistent Unsupervised Off-the-Shelf Model Adaptation for
Source-Relaxed Medical Image Segmentation [13.260109561599904]
非教師なしドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きヘテロジニアスターゲットドメインに学習した情報を移行するための重要なプロトコルである。
我々は、ソースドメインで訓練されたOSセグメントをターゲットドメインに適応させることにより、イメージセグメンテーションを目的とした「オフ・ザ・シェルフ(OS)」 UDA (OSUDA) を提案する。
論文 参考訳(メタデータ) (2022-09-16T13:13:50Z) - Mitigating Data Heterogeneity in Federated Learning with Data
Augmentation [26.226057709504733]
Federated Learning(FL)は、集中型モデルのトレーニングを可能にするフレームワークである。
主な障害の1つは、データ不均一性、すなわち、各クライアントが独立に独立に分散した(非IID)データを持っていることである。
最近の証拠は、データ拡張が同等またはそれ以上のパフォーマンスを誘導できることを示している。
論文 参考訳(メタデータ) (2022-06-20T19:47:43Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Adapting Off-the-Shelf Source Segmenter for Target Medical Image
Segmentation [12.703234995718372]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインから学習した知識をラベルなしおよび見えないターゲットドメインに転送することを目的としている。
データストレージやプライバシの問題のため、適応段階でのソースドメインデータへのアクセスは制限されることが多い。
我々は、ソースドメインで事前訓練されたオフザシェルフセグメントモデルをターゲットドメインに適用することを提案する。
論文 参考訳(メタデータ) (2021-06-23T16:16:55Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。