論文の概要: Detection of Insider Attacks in Distributed Projected Subgradient
Algorithms
- arxiv url: http://arxiv.org/abs/2101.06917v1
- Date: Mon, 18 Jan 2021 08:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 15:50:40.219370
- Title: Detection of Insider Attacks in Distributed Projected Subgradient
Algorithms
- Title(参考訳): 分散計画下次アルゴリズムにおけるインサイダー攻撃の検出
- Authors: Sissi Xiaoxiao Wu, Gangqiang Li, Shengli Zhang, and Xiaohui Lin
- Abstract要約: 汎用ニューラルネットワークは悪質なエージェントの検出とローカライズに特に適していることを示す。
本稿では,連合学習における最先端のアプローチ,すなわち協調型ピアツーピア機械学習プロトコルを採用することを提案する。
シミュレーションでは,AIに基づく手法の有効性と有効性を検証するために,最小二乗問題を考える。
- 参考スコア(独自算出の注目度): 11.096339082411882
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The gossip-based distributed algorithms are widely used to solve
decentralized optimization problems in various multi-agent applications, while
they are generally vulnerable to data injection attacks by internal malicious
agents as each agent locally estimates its decent direction without an
authorized supervision. In this work, we explore the application of artificial
intelligence (AI) technologies to detect internal attacks. We show that a
general neural network is particularly suitable for detecting and localizing
the malicious agents, as they can effectively explore nonlinear relationship
underlying the collected data. Moreover, we propose to adopt one of the
state-of-art approaches in federated learning, i.e., a collaborative
peer-to-peer machine learning protocol, to facilitate training our neural
network models by gossip exchanges. This advanced approach is expected to make
our model more robust to challenges with insufficient training data, or
mismatched test data. In our simulations, a least-squared problem is considered
to verify the feasibility and effectiveness of AI-based methods. Simulation
results demonstrate that the proposed AI-based methods are beneficial to
improve performance of detecting and localizing malicious agents over
score-based methods, and the peer-to-peer neural network model is indeed robust
to target issues.
- Abstract(参考訳): Gossipベースの分散アルゴリズムは、様々なマルチエージェントアプリケーションの分散最適化問題を解決するために広く使われているが、一般的には、各エージェントが権限のない適切な方向をローカルに見積もっているため、内部悪意のあるエージェントによるデータインジェクション攻撃に対して脆弱である。
本研究では、内部攻撃を検出する人工知能(AI)技術の適用について検討する。
一般のニューラルネットワークは,収集されたデータに基づく非線形関係を効果的に探索できるため,悪意のあるエージェントの検出とローカライズに特に適している。
さらに,協調学習における最先端のアプローチ,すなわち協調型ピアツーピア機械学習プロトコルを採用し,ゴシップ交換によるニューラルネットワークモデルのトレーニングを容易にすることを提案する。
この高度なアプローチは、トレーニングデータ不足やミスマッチテストデータといった課題に対して、モデルをより堅牢にすることが期待されます。
シミュレーションでは,AI手法の有効性と有効性を検証するために,最小二乗問題を考える。
シミュレーションの結果,提案するaiベースの手法は,スコアに基づく手法よりも悪意のあるエージェントの検出とローカライズのパフォーマンス向上に有用であり,ピアツーピアニューラルネットワークモデルは,実際に問題に対して頑健であることが示された。
関連論文リスト
- Advancing Security in AI Systems: A Novel Approach to Detecting
Backdoors in Deep Neural Networks [3.489779105594534]
バックドアは、ディープニューラルネットワーク(DNN)上の悪意あるアクターと、データ処理のためのクラウドサービスによって悪用される。
提案手法は高度テンソル分解アルゴリズムを利用して,事前学習したDNNの重みを慎重に解析し,バックドアモデルとクリーンモデルとの区別を行う。
この進歩は、ネットワークシステムにおけるディープラーニングとAIのセキュリティを強化し、新興技術の脅威の進化に対して不可欠なサイバーセキュリティを提供する。
論文 参考訳(メタデータ) (2024-03-13T03:10:11Z) - Adversarial training with informed data selection [53.19381941131439]
アドリアリトレーニングは、これらの悪意のある攻撃からネットワークを守るための最も効率的なソリューションである。
本研究では,ミニバッチ学習に適用すべきデータ選択戦略を提案する。
シミュレーションの結果,ロバスト性および標準精度に関して良好な妥協が得られることがわかった。
論文 参考訳(メタデータ) (2023-01-07T12:09:50Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Neural Network Adversarial Attack Method Based on Improved Genetic
Algorithm [0.0]
改良された遺伝的アルゴリズムに基づくニューラルネットワーク逆攻撃法を提案する。
この方法は、ニューラルネットワークモデルの内部構造やパラメータ情報を必要としない。
論文 参考訳(メタデータ) (2021-10-05T04:46:16Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Data-efficient Weakly-supervised Learning for On-line Object Detection
under Domain Shift in Robotics [24.878465999976594]
文献では、Deep Convolutional Neural Networks (DCNNs)に基づく多数のオブジェクト検出方法が提案されている。
これらの手法はロボティクスに重要な制限がある:オフラインデータのみに学習するとバイアスが発生し、新しいタスクへの適応を防ぐことができる。
本研究では,弱い教師付き学習がこれらの問題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2020-12-28T16:36:11Z) - A cognitive based Intrusion detection system [0.0]
侵入検知は、コンピュータネットワークのセキュリティを提供する重要なメカニズムの1つである。
本稿では,Deep Neural Network Ans Supportctor Machine Classifierに基づく新しい手法を提案する。
提案手法は, 侵入検知に類似した手法により, より精度良く攻撃を予測できる。
論文 参考訳(メタデータ) (2020-05-19T13:30:30Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。