論文の概要: Security of Distributed Machine Learning: A Game-Theoretic Approach to
Design Secure DSVM
- arxiv url: http://arxiv.org/abs/2003.04735v2
- Date: Sun, 26 Apr 2020 21:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 14:17:50.772290
- Title: Security of Distributed Machine Learning: A Game-Theoretic Approach to
Design Secure DSVM
- Title(参考訳): 分散機械学習のセキュリティ:セキュアdsvm設計のためのゲーム理論的アプローチ
- Authors: Rui Zhang, Quanyan Zhu
- Abstract要約: この研究は、データ中毒やネットワーク攻撃から学習を保護するために、セキュアな分散アルゴリズムを開発することを目的としている。
我々は,分散サポートベクトルマシン(SVM)を使用する学習者と,トレーニングデータやラベルを変更することができる攻撃者の相反する目標を捉えるためのゲーム理論の枠組みを確立する。
数値的な結果から,分散SVMは異なるタイプの攻撃で失敗する傾向にあり,ネットワーク構造や攻撃能力に強い依存があることが分かる。
- 参考スコア(独自算出の注目度): 31.480769801354413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed machine learning algorithms play a significant role in processing
massive data sets over large networks. However, the increasing reliance on
machine learning on information and communication technologies (ICTs) makes it
inherently vulnerable to cyber threats. This work aims to develop secure
distributed algorithms to protect the learning from data poisoning and network
attacks. We establish a game-theoretic framework to capture the conflicting
goals of a learner who uses distributed support vector machines (SVMs) and an
attacker who is capable of modifying training data and labels. We develop a
fully distributed and iterative algorithm to capture real-time reactions of the
learner at each node to adversarial behaviors. The numerical results show that
distributed SVM is prone to fail in different types of attacks, and their
impact has a strong dependence on the network structure and attack
capabilities.
- Abstract(参考訳): 分散機械学習アルゴリズムは、大規模ネットワーク上の巨大なデータセットを処理する上で重要な役割を果たす。
しかし、情報通信技術(ICT)による機械学習への依存度の増加は、サイバー脅威に対して本質的に脆弱である。
この研究は、データ中毒やネットワーク攻撃から学習を保護するセキュアな分散アルゴリズムの開発を目的としている。
我々は,分散サポートベクトルマシン(SVM)を使用する学習者と,トレーニングデータやラベルを変更することができる攻撃者の相反する目標を捉えるゲーム理論の枠組みを確立する。
我々は,各ノードにおける学習者のリアルタイムな反応を解析し,相手の行動に対処する完全分散反復アルゴリズムを開発した。
数値的な結果から,分散SVMは異なるタイプの攻撃で失敗する傾向にあり,ネットワーク構造や攻撃能力に強い依存があることが分かる。
関連論文リスト
- Multi-agent Reinforcement Learning-based Network Intrusion Detection System [3.4636217357968904]
侵入検知システム(IDS)は,コンピュータネットワークのセキュリティ確保において重要な役割を担っている。
本稿では,自動,効率的,堅牢なネットワーク侵入検出が可能な,新しいマルチエージェント強化学習(RL)アーキテクチャを提案する。
我々のソリューションは、新しい攻撃の追加に対応し、既存の攻撃パターンの変更に効果的に適応するように設計されたレジリエントなアーキテクチャを導入します。
論文 参考訳(メタデータ) (2024-07-08T09:18:59Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - GowFed -- A novel Federated Network Intrusion Detection System [0.15469452301122172]
本研究は,Gower Dissimilarity行列とFederated Averagingを併用したネットワーク脅威検出システムであるGowFedを紹介する。
GowFedのアプローチは,(1)バニラバージョン,(2)アテンション機構を備えたバージョンなど,最先端の知識に基づいて開発されている。
全体として、GowFedは、産業レベルのネットワークにおけるネットワーク脅威を検出するためのフェデレートラーニングとガウワーの相違行列の併用に向けた最初の一歩となる。
論文 参考訳(メタデータ) (2022-10-28T23:53:37Z) - Support Vector Machines under Adversarial Label Contamination [13.299257835329868]
本稿では,SVM(Support Vector Machines)のセキュリティ評価を行った。
特に,複数のラベルを反転させることで,SVMの分類エラーを形式化することを目的とした攻撃者について検討する。
我々は、よりセキュアなSVM学習アルゴリズムを開発する上で、我々のアプローチは有用な洞察を与えることができると論じる。
論文 参考訳(メタデータ) (2022-06-01T09:38:07Z) - Learning to Detect: A Data-driven Approach for Network Intrusion
Detection [17.288512506016612]
ネットワークトラフィックデータセットであるNSL-KDDについて、パターンを可視化し、異なる学習モデルを用いてサイバー攻撃を検出することで包括的な研究を行う。
侵入検知に単一学習モデルアプローチを用いた従来の浅層学習モデルや深層学習モデルとは異なり、階層戦略を採用する。
バイナリ侵入検出タスクにおける教師なし表現学習モデルの利点を実証する。
論文 参考訳(メタデータ) (2021-08-18T21:19:26Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Data Poisoning Attacks on Federated Machine Learning [34.48190607495785]
フェデレートされた機械学習により、リソース制約のあるノードデバイスは、トレーニングデータをローカルに保ちながら、共有モデルを学ぶことができる。
異なるノード間の通信プロトコルは、攻撃者がデータ中毒攻撃を開始するために利用することができる。
ATTack on Federated Learning (AT2FL) という新しいシステム認識最適化手法を提案する。
論文 参考訳(メタデータ) (2020-04-19T03:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。