論文の概要: Oops!... They Stole it Again: Attacks on Split Learning
- arxiv url: http://arxiv.org/abs/2508.10598v1
- Date: Thu, 14 Aug 2025 12:39:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.312933
- Title: Oops!... They Stole it Again: Attacks on Split Learning
- Title(参考訳): Oops! ... 再び失敗に終わる: 分割学習に対する攻撃
- Authors: Tanveer Khan, Antonis Michalas,
- Abstract要約: Split Learning(SL)は、クライアント側でデータを保持しながら、中間出力のみをサーバと共有することで、プライバシを改善する共同学習アプローチである。
本稿では,攻撃者の役割,プライバシリスクの種類,データ漏洩の発生時期,脆弱性の有無といった要因に基づいて,SLに対する様々な攻撃を体系的に評価する。
- 参考スコア(独自算出の注目度): 1.8907108368038215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split Learning (SL) is a collaborative learning approach that improves privacy by keeping data on the client-side while sharing only the intermediate output with a server. However, the distributed nature of SL introduces new security challenges, necessitating a comprehensive exploration of potential attacks. This paper systematically reviews various attacks on SL, classifying them based on factors such as the attacker's role, the type of privacy risks, when data leaks occur, and where vulnerabilities exist. We also analyze existing defense methods, including cryptographic methods, data modification approaches, distributed techniques, and hybrid solutions. Our findings reveal security gaps, highlighting the effectiveness and limitations of existing defenses. By identifying open challenges and future directions, this work provides valuable information to improve SL privacy issues and guide further research.
- Abstract(参考訳): Split Learning(SL)は、クライアント側でデータを保持しながら、中間出力のみをサーバと共有することで、プライバシを改善する共同学習アプローチである。
しかし、SLの分散した性質は、新たなセキュリティ課題を導入し、潜在的な攻撃を包括的に調査する必要がある。
本稿では,攻撃者の役割,プライバシリスクの種類,データ漏洩の発生時期,脆弱性の有無といった要因に基づいて,SLに対する様々な攻撃を体系的に評価する。
また,暗号手法,データ修正手法,分散技術,ハイブリッドソリューションなど,既存の防衛手法も分析する。
以上の結果から,既存の防衛効果と限界を浮き彫りにした。
オープンな課題と今後の方向性を特定することで、この研究はSLプライバシーの問題を改善し、さらなる研究を導くための貴重な情報を提供する。
関連論文リスト
- Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - A Taxonomy of Attacks and Defenses in Split Learning [1.4892305653733091]
Split Learning(SL)は、分散ディープラーニングのための有望なパラダイムとして登場し、リソース制約のあるクライアントが、コラボレーティブな学習を維持しながら、モデルの部分をサーバにオフロードすることを可能にする。
しかし、最近の研究では、SLは情報漏洩、モデル逆転、敵攻撃など、さまざまなプライバシーやセキュリティ上の脅威に対して脆弱であることが証明されている。
本稿では,SLにおける攻撃・防御の包括的分類を,採用戦略,制約,有効性の3つの重要な側面に沿って分類する。
論文 参考訳(メタデータ) (2025-05-09T08:19:15Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Investigating Privacy Attacks in the Gray-Box Setting to Enhance Collaborative Learning Schemes [7.651569149118461]
我々は、攻撃者がモデルに限られたアクセスしかできないグレーボックス設定でプライバシ攻撃を研究する。
SmartNNCryptは、同型暗号化を調整して、より高いプライバシーリスクを示すモデルの部分を保護するフレームワークです。
論文 参考訳(メタデータ) (2024-09-25T18:49:21Z) - Security and Privacy Issues and Solutions in Federated Learning for
Digital Healthcare [0.0]
フェデレートラーニング(Federated Learning)の幅広い攻撃面に基づいて,脆弱性,攻撃,防御を提示する。
我々は、より堅牢なFLに向けた新しい研究の方向性を期待する。
論文 参考訳(メタデータ) (2024-01-16T16:07:53Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - Split Without a Leak: Reducing Privacy Leakage in Split Learning [3.2066885499201176]
スプリットラーニング(SL)とホモモルフィック暗号化(HE)を用いたハイブリッド手法を提案する。
MIT-BIH データセットでは,SL と HE を用いたハイブリッド手法により,訓練時間(約6倍)が短縮され,通信オーバーヘッド(ほぼ160倍)が他の HE ベースの手法に比べて大幅に低減される。
論文 参考訳(メタデータ) (2023-08-30T06:28:42Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Unleashing the Tiger: Inference Attacks on Split Learning [2.492607582091531]
クライアントのプライベートトレーニングセットの再構築を目的とした汎用的な攻撃戦略を導入する。
悪意のあるサーバは、分散モデルの学習プロセスを積極的にハイジャックすることができる。
我々は、最近提案された防御手法を克服できることを実証する。
論文 参考訳(メタデータ) (2020-12-04T15:41:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。