論文の概要: A Framework for Double-Blind Federated Adaptation of Foundation Models
- arxiv url: http://arxiv.org/abs/2502.01289v2
- Date: Wed, 01 Oct 2025 15:14:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.504358
- Title: A Framework for Double-Blind Federated Adaptation of Foundation Models
- Title(参考訳): ファンデーションモデルの二重ブラインドフェデレーション適応のためのフレームワーク
- Authors: Nurbek Tastan, Karthik Nandakumar,
- Abstract要約: BlindFedは、双方を保護しながら協調FM適応を可能にするフレームワークである。
BlindFedは完全同型暗号(FHE)に依存している
4つの画像分類データセットの実証結果は、BlindFedフレームワークの実用可能性を示している。
- 参考スコア(独自算出の注目度): 31.36024309218701
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Foundation models (FMs) excel in zero-shot tasks but benefit from task-specific adaptation. However, privacy concerns prevent data sharing among multiple data owners, and proprietary restrictions prevent the learning service provider (LSP) from sharing the FM. In this work, we propose BlindFed, a framework enabling collaborative FM adaptation while protecting both parties: data owners do not access the FM or each other's data, and the LSP does not see sensitive task data. BlindFed relies on fully homomorphic encryption (FHE) and consists of three key innovations: (i) FHE-friendly architectural modifications via polynomial approximations and low-rank adapters, (ii) a two-stage split learning approach combining offline knowledge distillation and online encrypted inference for adapter training without backpropagation through the FM, and (iii) a privacy-boosting scheme using sample permutations and stochastic block sampling to mitigate model extraction attacks. Empirical results on four image classification datasets demonstrate the practical feasibility of the BlindFed framework, albeit at a high communication cost and large computational complexity for the LSP.
- Abstract(参考訳): ファンデーションモデル(FM)はゼロショットタスクでは優れているが、タスク固有の適応の恩恵を受ける。
しかし、プライバシに関する懸念は、複数のデータ所有者間でのデータ共有を妨げ、プロプライエタリな制限は、学習サービスプロバイダ(LSP)がFMを共有することを妨げている。
本研究では,データ所有者がFMや相互のデータにアクセスせず,LSPが機密性の高いタスクデータを見ることなく,協調的FM適応を可能にするフレームワークであるBlindFedを提案する。
BlindFedは完全同型暗号化(FHE)に依存しており、3つの重要なイノベーションで構成されている。
一 多項式近似及び低ランクアダプタによるFHEフレンドリーなアーキテクチャ変更
(二)FM経由のバックプロパゲーションのないアダプタ教育のためのオフライン知識蒸留とオンライン暗号化推論を組み合わせた二段階分割学習手法
3) モデル抽出攻撃を緩和するために, サンプル置換と確率的ブロックサンプリングを用いたプライバシブースティング方式。
4つの画像分類データセットの実証的な結果は、通信コストが高く、LSPの計算複雑性が大きいにもかかわらず、BlindFedフレームワークの実現可能性を示している。
関連論文リスト
- Synergizing Foundation Models and Federated Learning: A Survey [23.416321895575507]
本稿では,フェデレートラーニング(FL)とファンデーションモデル(FM)の融合の可能性と課題について論じる。
FLは、さまざまな参加者からのデータ可用性の障壁を破る、共同学習パラダイムである。
プライバシを保護しながら、分散データセットを使用して、幅広いドメイン固有のタスクにFMをカスタマイズし、適応する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-06-18T17:58:09Z) - FedPFT: Federated Proxy Fine-Tuning of Foundation Models [55.58899993272904]
フェデレートラーニング(FL)を通じて下流タスクにファンデーションモデル(FM)を適用することは、データプライバシと価値のあるFMを保護するための有望な戦略として現れます。
FLのクライアントにサブFMを割り当てることによる既存のFMの微調整手法は、チューニングが不十分で勾配の必然的エラー蓄積が避けられないため、最適以下の性能をもたらす。
本稿では,FedPFT(Federated Proxy Fine-Tuning)を提案する。
論文 参考訳(メタデータ) (2024-04-17T16:30:06Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - EdgeFM: Leveraging Foundation Model for Open-set Learning on the Edge [15.559604113977294]
We propose EdgeFM, a novel edge-cloud collaborative system with open-set recognition capabilities。
EdgeFMは、エンドツーエンドのレイテンシを3.2倍に削減し、ベースラインと比較して34.3%の精度向上を実現している。
論文 参考訳(メタデータ) (2023-11-18T06:40:39Z) - VideoGLUE: Video General Understanding Evaluation of Foundation Models [89.07145427268948]
我々は、慎重に設計された実験プロトコルを用いて、基礎モデル(FM)の映像理解能力を評価する。
一般的な映像理解タスクに適応する際のFMの目印と有効性について共同で検討する。
論文 参考訳(メタデータ) (2023-07-06T17:47:52Z) - Federated Foundation Models: Privacy-Preserving and Collaborative Learning for Large Models [8.184714897613166]
我々は、FMとFederated Learning(FL)の利点を組み合わせたFFM(Federated Foundation Models)パラダイムを提案する。
我々は,FMの寿命にFLを組み込むことの潜在的なメリットと課題について論じ,事前学習,微調整,応用について論じる。
エッジでの計算能力の増大は、データソースに近い新たに生成されたプライベートデータを用いてFMを最適化する可能性を解き放つ可能性があるため、FFMにおける連続的・長期学習の可能性を探る。
論文 参考訳(メタデータ) (2023-05-19T03:51:59Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - Boosting Factorization Machines via Saliency-Guided Mixup [125.15872106335692]
我々は、MixupにインスパイアされたMixFMを紹介し、ファクトリゼーションマシン(FM)を強化するための補助的なトレーニングデータを生成する。
また、Saliency-Guided Mixup(SMFM)を利用した新しいファクトリゼーションマシンも提案した。
論文 参考訳(メタデータ) (2022-06-17T09:49:00Z) - Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients [98.22390453672499]
Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
論文 参考訳(メタデータ) (2022-04-07T09:12:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。