論文の概要: A Distributed Generative AI Approach for Heterogeneous Multi-Domain Environments under Data Sharing constraints
- arxiv url: http://arxiv.org/abs/2507.12979v1
- Date: Thu, 17 Jul 2025 10:31:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.453026
- Title: A Distributed Generative AI Approach for Heterogeneous Multi-Domain Environments under Data Sharing constraints
- Title(参考訳): データ共有制約下での不均一なマルチドメイン環境に対する分散生成AIアプローチ
- Authors: Youssef Tawfilis, Hossam Amer, Minar El-Aasser, Tallal Elshabrawy,
- Abstract要約: 本稿では,分散GANトレーニングのための新しいアプローチを提案する。
分散データの利用と、未使用の低機能デバイスの利用を可能にすると同時に、データの生の形式での共有も行なわない。
当社のアプローチは、分散環境における重要な課題に取り組むために設計されています。
- 参考スコア(独自算出の注目度): 0.6943041855623096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning has gained increasing attention for its ability to enable multiple nodes to collaboratively train machine learning models without sharing their raw data. At the same time, Generative AI -- particularly Generative Adversarial Networks (GANs) -- have achieved remarkable success across a wide range of domains, such as healthcare, security, and Image Generation. However, training generative models typically requires large datasets and significant computational resources, which are often unavailable in real-world settings. Acquiring such resources can be costly and inefficient, especially when many underutilized devices -- such as IoT devices and edge devices -- with varying capabilities remain idle. Moreover, obtaining large datasets is challenging due to privacy concerns and copyright restrictions, as most devices are unwilling to share their data. To address these challenges, we propose a novel approach for decentralized GAN training that enables the utilization of distributed data and underutilized, low-capability devices while not sharing data in its raw form. Our approach is designed to tackle key challenges in decentralized environments, combining KLD-weighted Clustered Federated Learning to address the issues of data heterogeneity and multi-domain datasets, with Heterogeneous U-Shaped split learning to tackle the challenge of device heterogeneity under strict data sharing constraints -- ensuring that no labels or raw data, whether real or synthetic, are ever shared between nodes. Experimental results shows that our approach demonstrates consistent and significant improvements across key performance metrics, where it achieves 1.1x -- 2.2x higher image generation scores, an average 10% boost in classification metrics (up to 50% in multi-domain non-IID settings), in much lower latency compared to several benchmarks. Find our code at https://github.com/youssefga28/HuSCF-GAN.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、複数のノードが生データを共有せずに、協調的に機械学習モデルをトレーニングできる能力に注目が集まっている。
同時に、ジェネレーティブAI(特にGAN)は、医療、セキュリティ、画像生成など、幅広い領域で大きな成功を収めています。
しかし、生成モデルのトレーニングは通常、大規模なデータセットと重要な計算資源を必要とするが、現実の環境では利用できないことが多い。
このようなリソースの取得は、特にIoTデバイスやエッジデバイスなど、多くの未使用デバイスがアイドル状態にある場合、コストがかかり非効率になる可能性がある。
さらに、多くのデバイスがデータの共有を望んでいないため、プライバシの懸念と著作権の制限のため、大規模なデータセットを取得することは難しい。
これらの課題に対処するために,分散データと低機能デバイスを生データで共有することなく利用可能にする分散型GANトレーニングの新たなアプローチを提案する。
KLD重み付きクラスタ化フェデレーション学習(Clustered Federated Learning)とヘテロジニアスU字型分割学習(Heterogeneous U字型分割学習)を組み合わせることで、ノード間で共有されたラベルや生データが、実データであれ合成データであれ、ノード間で共有されることなく、デバイス不均一性の課題に対処する。実験結果から、当社のアプローチは、主要なパフォーマンス指標間の一貫性と大幅な改善を示し、そこで1.1x -- 2.2倍高い画像生成スコア、平均10%の分類メトリクス(マルチドメイン非IID設定で最大50%まで)が、いくつかのベンチマークと比べてはるかに低いレイテンシで実現されていることが判明した。
コードについてはhttps://github.com/youssefga28/HuSCF-GAN.comを参照してください。
関連論文リスト
- Generative AI-Powered Plugin for Robust Federated Learning in Heterogeneous IoT Networks [3.536605202672355]
フェデレーション学習により、エッジデバイスは、データのローカライズを維持しながら、データのプライバシを維持しながら、グローバルモデルを協調的にトレーニングすることが可能になる。
我々は,AI強化データ拡張と均衡サンプリング戦略により,IIDからIDDへの非IIDデータ分布を近似する,フェデレーション最適化技術のための新しいプラグインを提案する。
論文 参考訳(メタデータ) (2024-10-31T11:13:47Z) - Faster Convergence on Heterogeneous Federated Edge Learning: An Adaptive Clustered Data Sharing Approach [27.86468387141422]
Federated Edge Learning (FEEL)は、6G Hyper-Connectivityのための分散機械学習パラダイムのパイオニアとして登場した。
現在のFEELアルゴリズムは、非独立かつ非独立に分散した(非IID)データと競合し、通信コストの上昇とモデルの精度が損なわれる。
我々はクラスタ化データ共有フレームワークを導入し、クラスタヘッドから信頼されたアソシエイトに部分的なデータを選択的に共有することで、データの均一性を緩和する。
実験により, このフレームワークは, 限られた通信環境において, 収束速度が速く, モデル精度が高い非IIDデータセット上で FEEL を促進することを示した。
論文 参考訳(メタデータ) (2024-06-14T07:22:39Z) - FedSR: A Semi-Decentralized Federated Learning Algorithm for Non-IIDness in IoT System [2.040586739710704]
IoT(Industrial Internet of Things)では、大量のデータが毎日生成される。
プライバシーとセキュリティの問題により、これらのデータをまとめてディープラーニングモデルをトレーニングすることは困難である。
本稿では,集中型フェデレーション学習と分散型フェデレーション学習を組み合わせて,半分散型クラウドエッジデバイス階層型フェデレーション学習フレームワークを設計する。
論文 参考訳(メタデータ) (2024-03-19T09:34:01Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Clustered Data Sharing for Non-IID Federated Learning over Wireless
Networks [39.80420645943706]
Federated Learning (FL)は、IoT(Internet of Things)のデータを活用する分散型機械学習アプローチである。
現在のFLアルゴリズムは、非独立で同一の分散データ(非IID)の課題に直面しており、通信コストが高く、モデルの精度が低下する。
本稿では,デバイス間通信(D2D)を通じて,クラスタヘッドから信頼性の高いアソシエイトへの部分的データ通信を行うクラスタデータ共有フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-17T07:11:02Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Multi-modal AsynDGAN: Learn From Distributed Medical Image Data without
Sharing Private Information [55.866673486753115]
プライバシーとセキュリティを守るために拡張可能で弾力性のある学習フレームワークを提案します。
提案するフレームワークは分散Asynchronized Discriminator Generative Adrial Networks (AsynDGAN) である。
論文 参考訳(メタデータ) (2020-12-15T20:41:24Z) - FedCD: Improving Performance in non-IID Federated Learning [0.0]
フェデレーション学習は、それぞれ独自のローカルデータを持つ分散デバイスで、共有モデルを学ぶために広く適用されてきた。
我々はFedCDという新しいアプローチを提案し、類似したデータを動的にグループ化するためにモデルをクローンし削除する。
論文 参考訳(メタデータ) (2020-06-17T03:45:25Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。