論文の概要: Vulnerabilities of Foundation Model Integrated Federated Learning Under
Adversarial Threats
- arxiv url: http://arxiv.org/abs/2401.10375v1
- Date: Thu, 18 Jan 2024 20:56:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-01-22 17:32:12.123682
- Title: Vulnerabilities of Foundation Model Integrated Federated Learning Under
Adversarial Threats
- Title(参考訳): 対人脅威下におけるフェデレーション統合学習の脆弱性
- Authors: Chen Wu, Xi Li, Jiaqi Wang
- Abstract要約: フェデレートラーニング(FL)は、データプライバシとセキュリティに関連する機械学習における重要な問題に対処するが、特定の状況下でのデータ不足と不均衡に悩まされる。
ファンデーションモデル(FM)の出現は、既存のFLフレームワークの制限に対する潜在的な解決策を提供する。
FM統合FL(FM-FL)の脆弱性を敵の脅威下で調査した。
- 参考スコア(独自算出の注目度): 38.796153209989654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) addresses critical issues in machine learning related
to data privacy and security, yet suffering from data insufficiency and
imbalance under certain circumstances. The emergence of foundation models (FMs)
offers potential solutions to the limitations of existing FL frameworks, e.g.,
by generating synthetic data for model initialization. However, due to the
inherent safety concerns of FMs, integrating FMs into FL could introduce new
risks, which remains largely unexplored. To address this gap, we conduct the
first investigation on the vulnerability of FM integrated FL (FM-FL) under
adversarial threats. Based on a unified framework of FM-FL, we introduce a
novel attack strategy that exploits safety issues of FM to compromise FL client
models. Through extensive experiments with well-known models and benchmark
datasets in both image and text domains, we reveal the high susceptibility of
the FM-FL to this new threat under various FL configurations. Furthermore, we
find that existing FL defense strategies offer limited protection against this
novel attack approach. This research highlights the critical need for enhanced
security measures in FL in the era of FMs.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシとセキュリティに関連する機械学習における重要な問題に対処するが、特定の状況下でのデータ不足と不均衡に悩まされる。
基礎モデル(FM)の出現は、モデル初期化のための合成データを生成するなど、既存のFLフレームワークの制限に対する潜在的な解決策を提供する。
しかし、FMの安全性に関する懸念から、FMをFLに統合することは新たなリスクをもたらす可能性がある。
このギャップに対処するため,FM統合FL(FM-FL)の脆弱性を敵の脅威下で調査した。
fm-flの統一フレームワークに基づき、fmの安全性問題を利用してflクライアントモデルを妥協する新たな攻撃戦略を提案する。
画像領域とテキスト領域の両方でよく知られたモデルとベンチマークデータセットを用いた広範な実験により、様々なFL構成下でのこの新たな脅威に対するFM-FLの高い感受性を明らかにする。
さらに、既存のfl防衛戦略は、この新たな攻撃アプローチに対する限定的な保護を提供する。
本研究は,FM時代のFLにおけるセキュリティ対策の強化の必要性を強調した。
関連論文リスト
- Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Trustworthy Federated Learning: Privacy, Security, and Beyond [37.495790989584584]
Federated Learning (FL)は、生データを転送することなく、分散データソース間で協調的なモデルトレーニングを促進することで、問題に対処する。
FLが抱えるセキュリティとプライバシに関する広範な調査を行い、通信リンクの脆弱性とサイバー脅威の可能性を明らかにします。
FLフレームワーク内で発生する複雑なセキュリティ課題を特定し、セキュアで効率的なFLシステムの開発に寄与することを目的としている。
論文 参考訳(メタデータ) (2024-11-03T14:18:01Z) - FedPFT: Federated Proxy Fine-Tuning of Foundation Models [55.58899993272904]
フェデレートラーニング(FL)を通じて下流タスクにファンデーションモデル(FM)を適用することは、データプライバシと価値のあるFMを保護するための有望な戦略として現れます。
FLのクライアントにサブFMを割り当てることによる既存のFMの微調整手法は、チューニングが不十分で勾配の必然的エラー蓄積が避けられないため、最適以下の性能をもたらす。
本稿では,FedPFT(Federated Proxy Fine-Tuning)を提案する。
論文 参考訳(メタデータ) (2024-04-17T16:30:06Z) - Robust Federated Learning for Wireless Networks: A Demonstration with Channel Estimation [6.402721982801266]
フェデレートラーニング(FL)は、無線ネットワークにおけるモデルのトレーニングのために、プライバシ保護のための協調的なアプローチを提供する。
FLを用いたチャネル推定に関する広範な研究にもかかわらず、FLに関連するセキュリティ上の懸念は注意を要する。
本稿では,このような脆弱性を分析し,それに対応する解決策を提示し,シミュレーションにより検証した。
論文 参考訳(メタデータ) (2024-04-03T22:03:28Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - The Role of Federated Learning in a Wireless World with Foundation Models [59.8129893837421]
ファンデーションモデル(FM)は汎用人工知能(AI)モデルである。
現在、FMと連邦学習(FL)の相互作用の探索はまだ初期段階にある。
本稿では、FMが無線ネットワークよりもFLに適した範囲について検討し、その研究課題と機会について概観する。
論文 参考訳(メタデータ) (2023-10-06T04:13:10Z) - Towards Understanding Adversarial Transferability in Federated Learning [14.417827137513369]
悪質なクライアントのグループは、そのアイデンティティを軽視し、良心的なクライアントとして振る舞うことによって、トレーニング中にモデルに影響を与えてきたが、その後、敵の役割に切り替えた。
この種の攻撃は微妙で検出が難しい。
提案攻撃が現在のFLシステムに対して高いセキュリティリスクを課すことを実証的に示す。
論文 参考訳(メタデータ) (2023-10-01T08:35:46Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Deep Equilibrium Models Meet Federated Learning [71.57324258813675]
本研究では,従来の深層学習ネットワークの代わりにDeep Equilibrium(DEQ)モデルを用いて,フェデレートラーニング(FL)問題について検討する。
我々は、DECモデルをフェデレート学習フレームワークに組み込むことで、FLのいくつかのオープンな問題に自然に対処できると主張している。
我々の知る限りでは、この研究は、DECモデルとフェデレーションラーニングの関連性を確立する最初のものである。
論文 参考訳(メタデータ) (2023-05-29T22:51:40Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Backdoor Attacks and Defenses in Federated Learning: Survey, Challenges
and Future Research Directions [3.6086478979425998]
Federated Learning(FL)は、個人のプライバシを損なうことなく分散データを使用することが可能な機械学習(ML)アプローチである。
FLにおけるクライアント間のデータの均一な分散は、オーケストレーションサーバがローカルモデル更新の完全性を検証するのを難しくする。
バックドア攻撃では、悪意のあるクライアントからの悪意のあるアップデートを通じて、悪意のある機能をターゲットモデルに挿入する。
論文 参考訳(メタデータ) (2023-03-03T20:54:28Z) - WW-FL: Secure and Private Large-Scale Federated Learning [15.412475066687723]
Federated Learning(FL)は、クライアントデバイス上でトレーニングデータを保持することによって、データのプライバシを保証する、大規模分散機械学習の効率的なアプローチである。
最近の研究でFLの脆弱性が発見され、毒殺攻撃によってセキュリティとプライバシーの両方に影響を及ぼした。
データとグローバルモデルのプライバシを保証するために,セキュアなマルチパーティ計算と階層的なFLを組み合わせた,革新的なフレームワークであるWW-FLを提案する。
論文 参考訳(メタデータ) (2023-02-20T11:02:55Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - Threats to Federated Learning: A Survey [35.724483191921244]
フェデレーテッド・ラーニング(FL)は、この新しい現実の下で有望なソリューションとして登場した。
既存のFLプロトコルの設計は、敵に悪用される脆弱性を示すことが示されている。
本稿では、FLの概念を簡潔に紹介し、脅威モデルをカバーするユニークな分類法と、FLに対する2つの主要な攻撃について述べる。
論文 参考訳(メタデータ) (2020-03-04T15:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。