論文の概要: Securing Genomic Data Against Inference Attacks in Federated Learning Environments
- arxiv url: http://arxiv.org/abs/2505.07188v1
- Date: Mon, 12 May 2025 02:36:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.246666
- Title: Securing Genomic Data Against Inference Attacks in Federated Learning Environments
- Title(参考訳): フェデレーション学習環境における推論攻撃に対するゲノムデータの確保
- Authors: Chetan Pathade, Shubham Patil,
- Abstract要約: Federated Learning(FL)は、直接的なデータ共有なしに、分散されたゲノムデータセット間で機械学習モデルを協調的にトレーニングする、有望なフレームワークを提供する。
このアプローチはデータの局所性を保っているが、個人のプライバシーを侵害する可能性のある高度な推論攻撃の影響を受けやすい。
本研究では,合成ゲノムデータを用いてフェデレートされた学習環境をシミュレートし,その脆弱性を3つの攻撃ベクトルに評価する。
- 参考スコア(独自算出の注目度): 0.31570310818616687
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Federated Learning (FL) offers a promising framework for collaboratively training machine learning models across decentralized genomic datasets without direct data sharing. While this approach preserves data locality, it remains susceptible to sophisticated inference attacks that can compromise individual privacy. In this study, we simulate a federated learning setup using synthetic genomic data and assess its vulnerability to three key attack vectors: Membership Inference Attack (MIA), Gradient-Based Membership Inference Attack, and Label Inference Attack (LIA). Our experiments reveal that Gradient-Based MIA achieves the highest effectiveness, with a precision of 0.79 and F1-score of 0.87, underscoring the risk posed by gradient exposure in federated updates. Additionally, we visualize comparative attack performance through radar plots and quantify model leakage across clients. The findings emphasize the inadequacy of na\"ive FL setups in safeguarding genomic privacy and motivate the development of more robust privacy-preserving mechanisms tailored to the unique sensitivity of genomic data.
- Abstract(参考訳): Federated Learning(FL)は、直接的なデータ共有なしに、分散されたゲノムデータセット間で機械学習モデルを協調的にトレーニングする、有望なフレームワークを提供する。
このアプローチはデータの局所性を保っているが、個人のプライバシーを侵害する可能性のある高度な推論攻撃の影響を受けやすい。
本研究では,合成ゲノムデータを用いてフェデレートされた学習環境をシミュレートし,その脆弱性を3つの主要な攻撃ベクトル(MIA)、グラディエントベースメンバーシップ推論攻撃(LIA)、ラベル推論攻撃(LIA)に評価する。
実験の結果, グラディエントベースMIAは0.79, F1スコア0.87の精度で高い効率を達成し, 連成更新における勾配露光によるリスクを浮き彫りにしていることがわかった。
さらに、レーダプロットによる比較攻撃性能を可視化し、クライアント間のモデルリークを定量化する。
この結果は、ゲノムプライバシを保護し、ゲノムデータの特異な感度に合わせた、より堅牢なプライバシ保存機構の開発を動機付けるために、na\"ive FLセットアップが不十分であることを強調した。
関連論文リスト
- Attribute Inference Attacks for Federated Regression Tasks [14.152503562997662]
フェデレートラーニング(FL)は、クライアントがデータをローカライズしながら、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする。
近年の研究では、FLの訓練段階が再建攻撃に弱いことが判明している。
FL環境における回帰タスクに特化したモデルベースAIAを提案する。
論文 参考訳(メタデータ) (2024-11-19T18:06:06Z) - Federated Knowledge Recycling: Privacy-Preserving Synthetic Data Sharing [5.0243930429558885]
フェデレーション・ナレッジ・リサイクリング(FedKR)は、組織間のコラボレーションを促進するために、局所的に生成された合成データを利用するクロスサイロ・フェデレーション・ラーニング・アプローチである。
FedKRは、高度なデータ生成技術と動的な集約プロセスを組み合わせることで、既存の方法よりも高いセキュリティを提供する。
論文 参考訳(メタデータ) (2024-07-30T13:56:26Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Concealing Sensitive Samples against Gradient Leakage in Federated
Learning [41.43099791763444]
Federated Learning(FL)は、クライアントが生のプライベートデータをサーバと共有する必要をなくし、ユーザのプライバシを高める分散学習パラダイムである。
近年の研究では、FLの脆弱性が逆攻撃のモデルとなり、敵は共有勾配情報に基づく盗聴によって個人データを再構築している。
我々は,機密データの勾配を隠蔽標本で曖昧にする,シンプルで効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-09-13T04:19:35Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。