論文の概要: A Taxonomy of Attacks and Defenses in Split Learning
- arxiv url: http://arxiv.org/abs/2505.05872v1
- Date: Fri, 09 May 2025 08:19:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.202111
- Title: A Taxonomy of Attacks and Defenses in Split Learning
- Title(参考訳): 分断学習における攻撃と防御の分類
- Authors: Aqsa Shabbir, Halil İbrahim Kanpak, Alptekin Küpçü, Sinem Sav,
- Abstract要約: Split Learning(SL)は、分散ディープラーニングのための有望なパラダイムとして登場し、リソース制約のあるクライアントが、コラボレーティブな学習を維持しながら、モデルの部分をサーバにオフロードすることを可能にする。
しかし、最近の研究では、SLは情報漏洩、モデル逆転、敵攻撃など、さまざまなプライバシーやセキュリティ上の脅威に対して脆弱であることが証明されている。
本稿では,SLにおける攻撃・防御の包括的分類を,採用戦略,制約,有効性の3つの重要な側面に沿って分類する。
- 参考スコア(独自算出の注目度): 1.4892305653733091
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Split Learning (SL) has emerged as a promising paradigm for distributed deep learning, allowing resource-constrained clients to offload portions of their model computation to servers while maintaining collaborative learning. However, recent research has demonstrated that SL remains vulnerable to a range of privacy and security threats, including information leakage, model inversion, and adversarial attacks. While various defense mechanisms have been proposed, a systematic understanding of the attack landscape and corresponding countermeasures is still lacking. In this study, we present a comprehensive taxonomy of attacks and defenses in SL, categorizing them along three key dimensions: employed strategies, constraints, and effectiveness. Furthermore, we identify key open challenges and research gaps in SL based on our systematization, highlighting potential future directions.
- Abstract(参考訳): Split Learning(SL)は、分散ディープラーニングのための有望なパラダイムとして登場し、リソース制約のあるクライアントは、協調学習を維持しながら、モデル計算の一部をサーバにオフロードすることができる。
しかし、最近の研究では、SLは情報漏洩、モデル逆転、敵攻撃など、さまざまなプライバシーやセキュリティ上の脅威に対して脆弱であることが証明されている。
様々な防御機構が提案されているが、攻撃景観とそれに対応する対策の体系的な理解はいまだに不足している。
本研究では,SLにおける攻撃・防御の包括的分類を,採用戦略,制約,有効性の3つの重要な側面に沿って分類する。
さらに,システム化によるSLの鍵となるオープン課題と研究ギャップを同定し,今後の方向性を明らかにする。
関連論文リスト
- Attack and defense techniques in large language models: A survey and new perspectives [5.600972861188751]
大規模言語モデル(LLM)は多くの自然言語処理タスクの中心となっているが、その脆弱性はセキュリティと倫理的課題を呈している。
この体系的な調査は、LLMにおける攻撃と防御技術の進化の展望を探求する。
論文 参考訳(メタデータ) (2025-05-02T03:37:52Z) - A Survey of Model Extraction Attacks and Defenses in Distributed Computing Environments [55.60375624503877]
モデル抽出攻撃(MEA)は、敵がモデルを盗み、知的財産と訓練データを公開することによって、現代の機械学習システムを脅かす。
この調査は、クラウド、エッジ、フェデレーションのユニークな特性がどのように攻撃ベクトルや防御要件を形作るのかを、緊急に理解する必要に起因している。
本研究は, 自動運転車, 医療, 金融サービスといった重要な分野において, 環境要因がセキュリティ戦略にどう影響するかを実証し, 攻撃手法と防衛機構の進化を系統的に検討する。
論文 参考訳(メタデータ) (2025-02-22T03:46:50Z) - Membership Inference Attacks and Defenses in Federated Learning: A Survey [25.581491871183815]
フェデレートラーニング(Federated Learning)は、クライアントがローカルにモデルをトレーニングし、モデル更新を共有してグローバルモデルを開発する、分散機械学習アプローチである。
これは、特定のサンプルがトレーニングセットの一部であるかどうかを判断することで、クライアントのプライバシをターゲットとする。
これらの攻撃は、医療システム内の医療診断など、現実世界の応用における機密情報を侵害する可能性がある。
論文 参考訳(メタデータ) (2024-12-09T02:39:58Z) - A Survey of Attacks on Large Vision-Language Models: Resources, Advances, and Future Trends [78.3201480023907]
LVLM(Large Vision-Language Models)は、多モーダルな理解と推論タスクにまたがる顕著な能力を示す。
LVLMの脆弱性は比較的過小評価されており、日々の使用において潜在的なセキュリティリスクを生じさせる。
本稿では,既存のLVLM攻撃の様々な形態について概説する。
論文 参考訳(メタデータ) (2024-07-10T06:57:58Z) - Breaking Down the Defenses: A Comparative Survey of Attacks on Large Language Models [18.624280305864804]
大規模言語モデル(LLM)は自然言語処理(NLP)分野の基盤となっている。
本稿では,LSMを標的とした様々な攻撃形態の包括的調査を行う。
モデルアウトプットを操作するための敵攻撃、モデルトレーニングに影響を与えるデータ中毒、データエクスプロイトのトレーニングに関連するプライバシー上の懸念などについて調べる。
論文 参考訳(メタデータ) (2024-03-03T04:46:21Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Survey of Vulnerabilities in Large Language Models Revealed by
Adversarial Attacks [5.860289498416911]
大規模言語モデル(LLM)はアーキテクチャと能力において急速に進歩しています。
複雑なシステムに深く統合されるにつれて、セキュリティ特性を精査する緊急性が高まっている。
本稿では,LSMに対する対人攻撃の新たな学際的分野について調査する。
論文 参考訳(メタデータ) (2023-10-16T21:37:24Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。