論文の概要: CollaFuse: Navigating Limited Resources and Privacy in Collaborative
Generative AI
- arxiv url: http://arxiv.org/abs/2402.19105v1
- Date: Thu, 29 Feb 2024 12:36:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 14:53:37.589612
- Title: CollaFuse: Navigating Limited Resources and Privacy in Collaborative
Generative AI
- Title(参考訳): CollaFuse: コラボレーション生成AIで限られたリソースとプライバシをナビゲートする
- Authors: Domenique Zipperling, Simeon Allmendinger, Lukas Struppek, Niklas
K\"uhl
- Abstract要約: CollaFuseはスプリットラーニングにインスパイアされた新しいフレームワークだ。
共有サーバのトレーニングと推論を可能にし、クライアントの計算負担を軽減する。
エッジコンピューティングソリューションの設計、ヘルスケア研究、自動運転など、さまざまなアプリケーション分野に影響を与える可能性がある。
- 参考スコア(独自算出の注目度): 4.062316786853382
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the landscape of generative artificial intelligence, diffusion-based
models present challenges for socio-technical systems in data requirements and
privacy. Traditional approaches like federated learning distribute the learning
process but strain individual clients, especially with constrained resources
(e.g., edge devices). In response to these challenges, we introduce CollaFuse,
a novel framework inspired by split learning. Tailored for efficient and
collaborative use of denoising diffusion probabilistic models, CollaFuse
enables shared server training and inference, alleviating client computational
burdens. This is achieved by retaining data and computationally inexpensive GPU
processes locally at each client while outsourcing the computationally
expensive processes to the shared server. Demonstrated in a healthcare context,
CollaFuse enhances privacy by highly reducing the need for sensitive
information sharing. These capabilities hold the potential to impact various
application areas, such as the design of edge computing solutions, healthcare
research, or autonomous driving. In essence, our work advances distributed
machine learning, shaping the future of collaborative GenAI networks.
- Abstract(参考訳): 生成人工知能の分野では、拡散ベースのモデルは、データ要求とプライバシにおける社会技術システムの課題を示す。
フェデレーション学習のような従来のアプローチは学習プロセスを分散させるが、個々のクライアント、特に制約のあるリソース(エッジデバイスなど)に負荷をかける。
これらの課題に対応するために、スプリットラーニングに触発された新しいフレームワークCollaFuseを紹介します。
collafuseは効率良く協調的に拡散確率モデルをデノージングし、共有サーバのトレーニングと推論を可能にし、クライアントの計算負荷を軽減する。
これは、計算コストのかかるプロセスを共有サーバにアウトソーシングしながら、各クライアントでローカルにデータと計算コストの低いGPUプロセスを保持することで実現される。
CollaFuseは医療のコンテキストで実証され、機密情報共有の必要性を著しく低減することでプライバシーを高める。
これらの能力は、エッジコンピューティングソリューションの設計、ヘルスケア研究、自動運転など、さまざまなアプリケーション領域に影響を与える可能性を秘めている。
基本的に、我々の研究は分散機械学習を推進し、協調的なGenAIネットワークの未来を形作る。
関連論文リスト
- Generative AI like ChatGPT in Blockchain Federated Learning: use cases, opportunities and future [4.497001527881303]
本研究は、フェデレーション学習における生成AIの潜在的な統合について検討する。
GAN(generative adversarial Network)とVAE(variantal autoencoder)
合成データの生成は、限られたデータ可用性に関連する課題に、フェデレートされた学習を支援する。
論文 参考訳(メタデータ) (2024-07-25T19:43:49Z) - CollaFuse: Collaborative Diffusion Models [5.331052581441263]
分割学習に触発された分散協調拡散モデルに対する新しいアプローチを提案する。
本手法は,画像合成におけるクライアントの計算負担を軽減するとともに,拡散モデルの協調学習を容易にする。
論文 参考訳(メタデータ) (2024-06-20T15:54:21Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - Privacy-Preserving Serverless Edge Learning with Decentralized Small
Data [13.254530176359182]
最近、分散トレーニング戦略は、ディープモデルをトレーニングする際のデータプライバシを保証するための有望なアプローチになっている。
本稿では、従来のサーバレスプラットフォームをサーバレスエッジ学習アーキテクチャで拡張し、ネットワークの観点から効率的な分散トレーニングフレームワークを提供する。
論文 参考訳(メタデータ) (2021-11-29T21:04:49Z) - A Federated Learning Aggregation Algorithm for Pervasive Computing:
Evaluation and Comparison [0.6299766708197883]
広範コンピューティングは、サービス提供のために、リビングスペースに接続デバイスをインストールすることを促進する。
エッジリソースの高度な利用と、エンジニアリングアプリケーションのための機械学習技術の統合だ。
本稿では,FedDistと呼ばれる新しいアグリゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-19T19:43:28Z) - Distributed Deep Learning in Open Collaborations [49.240611132653456]
協調学習に特化して設計された新しいアルゴリズムフレームワークを提案する。
現実的な条件下でのSwaVとALBERTの事前学習に対するアプローチの有効性を実証し,コストのごく一部で従来の設定に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2021-06-18T16:23:13Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。