論文の概要、ライセンス

# (参考訳) 分散計画下次アルゴリズムにおけるインサイダー攻撃の検出 [全文訳有]

Detection of Insider Attacks in Distributed Projected Subgradient Algorithms ( http://arxiv.org/abs/2101.06917v1 )

ライセンス: CC BY 4.0
Sissi Xiaoxiao Wu, Gangqiang Li, Shengli Zhang, and Xiaohui Lin(参考訳) Gossipベースの分散アルゴリズムは、様々なマルチエージェントアプリケーションの分散最適化問題を解決するために広く使われているが、一般的には、各エージェントが権限のない適切な方向をローカルに見積もっているため、内部悪意のあるエージェントによるデータインジェクション攻撃に対して脆弱である。 本研究では、内部攻撃を検出する人工知能(AI)技術の適用について検討する。 一般のニューラルネットワークは,収集されたデータに基づく非線形関係を効果的に探索できるため,悪意のあるエージェントの検出とローカライズに特に適している。 さらに,協調学習における最先端のアプローチ,すなわち協調型ピアツーピア機械学習プロトコルを採用し,ゴシップ交換によるニューラルネットワークモデルのトレーニングを容易にすることを提案する。 この高度なアプローチは、トレーニングデータ不足やミスマッチテストデータといった課題に対して、モデルをより堅牢にすることが期待されます。 シミュレーションでは,AI手法の有効性と有効性を検証するために,最小二乗問題を考える。 シミュレーションの結果,提案するaiベースの手法は,スコアに基づく手法よりも悪意のあるエージェントの検出とローカライズのパフォーマンス向上に有用であり,ピアツーピアニューラルネットワークモデルは,実際に問題に対して頑健であることが示された。

The gossip-based distributed algorithms are widely used to solve decentralized optimization problems in various multi-agent applications, while they are generally vulnerable to data injection attacks by internal malicious agents as each agent locally estimates its decent direction without an authorized supervision. In this work, we explore the application of artificial intelligence (AI) technologies to detect internal attacks. We show that a general neural network is particularly suitable for detecting and localizing the malicious agents, as they can effectively explore nonlinear relationship underlying the collected data. Moreover, we propose to adopt one of the state-of-art approaches in federated learning, i.e., a collaborative peer-to-peer machine learning protocol, to facilitate training our neural network models by gossip exchanges. This advanced approach is expected to make our model more robust to challenges with insufficient training data, or mismatched test data. In our simulations, a least-squared problem is considered to verify the feasibility and effectiveness of AI-based methods. Simulation results demonstrate that the proposed AI-based methods are beneficial to improve performance of detecting and localizing malicious agents over score-based methods, and the peer-to-peer neural network model is indeed robust to target issues.
公開日: Mon, 18 Jan 2021 08:01:06 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Detection of Insider Attacks in Distributed 分散型インサイダー攻撃の検出 0.62
Projected Subgradient Algorithms 予測下次アルゴリズム 0.58
Sissi Xiaoxiao Wu, Gangqiang Li, Shengli Zhang, and Xiaohui Lin Sissi Xiaoxiao Wu,Gangqiang Li,Shengli Zhang,Xiaohui Lin 0.75
1 1 2 0 2 n a J 1 1 2 0 2 n a J 0.85
8 1 ] G L . 8 1 ] G L。 0.81
s c [ 1 v 7 1 9 6 0 sc [ 1 v 7 1 9 6 0 0.68
. 1 0 1 2 : v i X r a . 1 0 1 2 : v i X r a 0.85
technologies to detect Abstract—The gossip-based distributed algorithms are widely used to solve decentralized optimization problems in various multi-agent applications, while they are generally vulnerable to data injection attacks by internal malicious agents as each agent locally estimates its decent direction without an authorized supervision. 検出する技術は 抽象 — ゴシップベースの分散アルゴリズムは、様々なマルチエージェントアプリケーションの分散最適化問題を解決するために広く使われていますが、一般的には、各エージェントが権限のある監督なしに、その適切な方向をローカルに見積もっているため、内部悪意のあるエージェントによるデータインジェクション攻撃に対して脆弱です。
訳抜け防止モード: 検出する技術は 抽象 – ゴシップベースの分散アルゴリズムが広く使われている 様々なマルチエージェントアプリケーションにおける分散最適化問題を解決する。 一般的には 内部の悪意のあるエージェントによる データ注入攻撃に 弱いが 各エージェントは 当局の監督なしに 適切な方向を推定する
0.76
In this work, we explore the application of artificial intelligence (AI) internal attacks. 本研究では,人工知能(AI)の内部攻撃の適用について検討する。 0.76
We show that a general neural network is particularly suitable for detecting and localizing the malicious agents, as they can effectively explore nonlinear relationship underlying the collected data. 一般のニューラルネットワークは,収集されたデータに基づく非線形関係を効果的に探索できるため,悪意のあるエージェントの検出とローカライズに特に適している。 0.79
Moreover, we propose to adopt one of the state-of-art approaches in federated learning, i.e., a collaborative peer-topeer machine learning protocol, to facilitate training our neural network models by gossip exchanges. さらに,協調学習における最先端のアプローチ,すなわち協調型ピアツーピア機械学習プロトコルを採用し,ゴシップ交換によるニューラルネットワークモデルのトレーニングを容易にすることを提案する。 0.84
This advanced approach is expected to make our model more robust to challenges with insufficient training data, or mismatched test data. この高度なアプローチは、トレーニングデータ不足やミスマッチテストデータといった課題に対して、モデルをより堅牢にすることが期待されます。
訳抜け防止モード: この先進的なアプローチは トレーニングデータ不足やミスマッチテストデータといった課題に対して,モデルをより堅牢にします。
0.76
In our simulations, a least-squared problem is considered to verify the feasibility and effectiveness of AI-based methods. シミュレーションでは,AI手法の有効性と有効性を検証するために,最小二乗問題を考える。 0.70
Simulation results demonstrate that the proposed AI-based methods are beneficial to improve performance of detecting and localizing malicious agents over score-based methods, and the peer-to-peer neural network model is indeed robust to target issues. シミュレーションの結果,提案するaiベースの手法は,スコアに基づく手法よりも悪意のあるエージェントの検出とローカライズのパフォーマンス向上に有用であり,ピアツーピアニューラルネットワークモデルは,実際に問題に対して頑健であることが示された。 0.70
Index Terms—Gossip algorithms, distributed projected subgradient (DPS), artificial intelligence (AI) technology, internal attacks, malicious agents. Index Terms - Gossipアルゴリズム、分散予測下位段階(DPS)、人工知能(AI)技術、内部攻撃、悪意のあるエージェント。 0.76
I. INTRODUCTION R ECENTLY, decentralized optimization algorithm as a I 導入 RECENTLY, decentralized optimization algorithm as a 0.55
popular tool to handle large scale computations has been broadly applied in various fields [1], [2]. 大規模計算を扱う一般的なツールは、様々な分野 [1], [2] に広く応用されている。 0.80
Typical examples of Internet of Things (IoT) [3], [4], multi-agent systems [5], [6], wireless communications network [7], power grid [8], and federated learning [9]. internet of things (iot) [3], [4], multi-agent systems [5], [6], wireless communications network [7], power grid [8], federated learning [9]の典型的な例です。 0.75
The design approach in above applications is often refereed as gossip-based optimization problems, wherein interacting agents are randomly selected and exchange information following a point-to-point message passing protocol so as to optimize shared variables. 上記のアプリケーションにおける設計アプローチは、しばしばゴシップベースの最適化問題と呼ばれ、対話エージェントをランダムに選択し、共有変数を最適化するためにポイントツーポイントメッセージパッシングプロトコルに従って情報を交換する。 0.76
Aiming at a coordinated response, these agents explicitly disclose their estimates (states) to neighboring agents in each iteration, thereby leading to a consistent globally optimal decision [1], [2], [10]. 協調された応答を目標とすると、これらのエージェントは各反復において隣り合うエージェントにその推定(状態)を明示的に開示し、一貫したグローバルな最適決定 [1], [2], [10] をもたらす。 0.78
It is well known that gossip-based algorithms are inherently robust to intermittent communication and builtin fault-tolerance to agent failures. gossipベースのアルゴリズムは、本質的に間欠的な通信やエージェントの障害に対するフォールトトレランスに頑健であることはよく知られている。 0.56
They can also provide a degree of privacy in many applications for participating また、多くのアプリケーションにプライバシーのレベルを提供することもできる。 0.62
This work is supported by the National Natural Science Foundation of China under Grant 61701315; by Shenzhen Technology R&D Fund JCYJ2017081710114990 6 and JCYJ2019080812041528 6; by Shenzhen University Launch Fund 2018018. この研究は、グラント61701315(深セン工科大学研究開発基金JCYJ2017081710114990 6)とJCYJ20 190808120415286(深セン大学設立基金2018018)の中国自然科学財団(National Natural Science Foundation of China)が支援している。 0.66
S. X. Wu, G. Li, S. Zhang and X. Lin are with the College of Electronics and Information Engineering, Shenzhen University, Shenzhen, China. s. x. wu, g. li, s. zhang, x. linは深セン大学深セン校の電子工学・情報工学部に所属している。 0.68
G. Li is the corresponding author. G. Liは対応する著者である。 0.74
E-mails: ligangqiang2017@emai l.szu.edu.cn, {xxwu.eesissi, zsl, xhlin}@szu.edu.cn. メール: ligangqiang2017@emai l.szu.edu.cn, {xxwu.eesissi, zsl, xhlin}@szu.edu.cn 0.65
agents without exchanging local user information [11]. ローカルユーザー情報を交換しないエージェント[11]。 0.80
Despite many advantages, these gossip-based algorithms, such as the distributed projected subgradient (DPS) algorithm [2], are inherently vulnerable to insider data injection attacks due to the flat architecture, since each agent locally estimates its (sub)gradient without any supervision [12]–[14]. 多くの利点があるが、分散プロジェクテッド・サブグラディエント (DPS) アルゴリズム [2] のようなゴシップベースのアルゴリズムは、各エージェントが監督なしで(サブ)グラディエントを局所的に推定するため、フラットアーキテクチャによるインサイダーデータインジェクション攻撃に対して本質的に脆弱である。
訳抜け防止モード: 多くの利点があるにもかかわらず、これらのゴシップベースのアルゴリズム、例えば分散投影次数(DPS)アルゴリズム [2 ]。 フラットアーキテクチャによるインサイダーデータインジェクション攻撃に 本質的に脆弱です 各エージェントは、[12]–[14 ]を監督せずに、局所的にその(下位)段階を推定する。
0.76
Generally speaking, malicious agents’ (or attackers) attack on decentralized algorithms depends on specific attacking strategies. 一般的に言えば、分散アルゴリズムに対する悪意あるエージェント(または攻撃者)の攻撃は、特定の攻撃戦略に依存する。 0.63
Attackers may interfere with distributed algorithms by injecting random data that hinders convergence [15]. 攻撃者は収束を妨げるランダムなデータを注入することで分散アルゴリズムを妨害するかもしれない[15]。 0.70
Especially in an insider attack, the attacker always sends misleading messages to its neighbors to affect the distributed system, resulting in false convergence results [16], [17]. 特にインサイダー攻撃では、攻撃者は常に隣人に誤解を招くメッセージを送信して分散システムに影響を与え、結果として偽収束結果 [16], [17] となる。
訳抜け防止モード: 特にインサイダー攻撃では、攻撃者は常に隣人に誤解を招くメッセージを送信します 分散システムに影響を与えます その結果 偽収束結果 [16 ], [17 ]
0.82
For example, a multi-agent system is forced to converge to the target values of attackers in [18] and an average consensus result is disturbed by coordinated attackers in [19]. 例えば、マルチエージェントシステムは、[18]において攻撃者のターゲット値に収束せざるを得ず、[19]における協調攻撃者によって平均的なコンセンサス結果が乱される。
訳抜け防止モード: 例えば、マルチエージェントシステムは強制される 攻撃者の目標値に[18]収束する 平均的なコンセンサスの結果は[19]のコーディネート攻撃によって妨害されます
0.85
The attack model we focus on in this work is that the attacker behaves like stubborn agents [20]. この作業で私たちが注目する攻撃モデルは、攻撃者が頑固なエージェントのように振る舞うことです [20]。 0.77
To be more specific, they coordinate and send messages to peers that contain a constant bias [12], [13], [17], [21] and their states can not be changed by other agents. より具体的に言うと、彼らは一定のバイアス[12]、[13]、[17]、[21]を含むピアにメッセージの調整と送信を行い、その状態は他のエージェントでは変更できない。
訳抜け防止モード: より具体的に言うと、 一定のバイアス[12]を含むピアにメッセージをコーディネートして送信します。 [ 13 ], [ 17 ], [ 21 ] 彼らの状態は 他のエージェントによって変えられません
0.81
As studied in [18], [19], the network always converges to a final state equal to the bias. 18], [19]で研究されたように、ネットワークは常にバイアスに等しい最終状態へと収束する。 0.83
This will bring serious security problems to distributed algorithms if the attacker cannot be detected effectively. これにより、攻撃者が効果的に検出できない場合、分散アルゴリズムに深刻なセキュリティ問題が発生する。 0.64
Thus, a good defense mechanism is needed to protect these algorithms from internal data injection attacks. したがって、これらのアルゴリズムを内部データインジェクション攻撃から守るには、適切な防御メカニズムが必要である。
訳抜け防止モード: そのため いい防御機構が 必要です。 これらのアルゴリズムを内部データインジェクション攻撃から保護する。
0.77
To detect anomalous behaviors in decentralized optimization, one commonly used approach in the literature is to calculate a dependent score through statistical techniques based on the messages received during the execution of protocol. 分散最適化における異常行動の検出には,プロトコル実行時に受信したメッセージに基づいて統計的手法を用いて,依存スコアを計算することが一般的である。 0.83
For instance, in [15], the authors show that the convergence speed of network will slow down when the attacker is present, and design a score to identify potential attacks. 例えば [15] では、ネットワークの収束速度が攻撃者がいるときに遅くなることを示し、潜在的な攻撃を識別するためのスコアを設計する。 0.74
In [19], two score-based detection strategies are proposed to protect the randomized average consensus gossip algorithm from malicious nodes. 19]では、ランダム化平均コンセンサスゴシップアルゴリズムを悪意のあるノードから保護するために、2つのスコアに基づく検出戦略が提案されている。 0.66
In [22], the authors design a comparison score to search for differences between a node and its neighbors, then adjust update rules to mitigate the impact of data falsification attacks. 22]では、ノードと隣接ノードの違いを検索するために比較スコアを設計し、データ改ざん攻撃の影響を軽減するために更新ルールを調整します。 0.72
In [13], the decision score is computed by a temporal difference strategy to detect and isolate attackers. 13]では、決定スコアを時間差戦略によって算出し、攻撃者を検出・隔離する。 0.75
Similar score-based methods are also shown in [23]–[25]. 類似したスコアベースの手法は[23]–[25]にも示される。 0.78
While such methods have reasonable performance, the score design is somewhat ad-hoc and relies heavily on the experts to design sophisticated decision functions, and the detection thresholds of these score-based methods need to be adjusted judiciously. このような手法は合理的な性能を持つが、スコアの設計は幾分アドホックであり、洗練された決定関数を設計する専門家に大きく依存しており、これらのスコアベースの手法の検出しきい値を公平に調整する必要がある。 0.54
To circumvent the above difficulties, our idea in this work is to utilize the artificial intelligent (AI) technology to approximate more sophisticated decision functions. この課題を回避するため、我々は人工知能(AI)技術を用いて、より洗練された決定関数を近似する。 0.64
It is worth mentioning that AI technology has succeed in many applications with AI技術が多くのアプリケーションで成功したことは注目に値する。 0.77
英語(論文から抽出)日本語訳スコア
2 the same purpose, including image recognition [26], natural language processing [27], power grid [28], and communications [29]. 2 同じ目的として、画像認識[26]、自然言語処理[27]、電力グリッド[28]、通信[29]がある。 0.73
Furthermore, AI also plays an important role in network security [30], such as anomaly intrusion detection [31], malicious PowerShell [32], distributed denial of service (DDoS) attacks [33] and malicious nodes in communication networks [34], [35]. さらに、aiはネットワークセキュリティ[30]において、異常侵入検出[31]、悪意のあるpowershell[32]、分散型サービス拒否(ddos)攻撃[33]、通信ネットワーク[34]、[35]における悪意のあるノードといった重要な役割を果たす。 0.65
The main purpose of this work is to apply AI technology to address the problem of detecting and localizing attackers in decentralized gossip based optimization algorithms. この研究の主な目的は、分散化ゴシップベースの最適化アルゴリズムにおいて攻撃者を検出し、ローカライズする問題にAI技術を適用することである。
訳抜け防止モード: この仕事の主な目的は 分散型ゴシップに基づく最適化アルゴリズムにおいて、攻撃者を検出し、ローカライズする問題にAI技術を適用する。
0.79
While our AI-based methods and training philosophy can be applied to a wide set of multi-agent algorithms and attack scenarios, we focus on testing the approach on a case that has been thoroughly studied in [13], [36], to facilitate the comparison. 当社のaiベースの手法とトレーニング哲学は、幅広いマルチエージェントアルゴリズムと攻撃シナリオに適用可能ですが、比較を容易にするために、[13]、[36]で徹底的に研究されたケースでアプローチをテストすることに重点を置いています。 0.79
Concretely, we proposed two AI-based strategies, namely the temporal difference strategy via neural networks (TDNN) and the spatial difference strategy via neural networks (SDNN). 具体的には、ニューラルネットワークによる時間差戦略(TDNN)と、ニューラルネットワークによる空間差戦略(SDNN)の2つのAIベースの戦略を提案する。 0.80
We will show that even basic neural network (NN) models exhibit a good ability to extract non-linearity from our training data and thus can well detect and localize attackers, given that 1) the collected training data can well represent the attack model, and 2) training data from all agents can be fully learned at the training center. 基礎的ニューラルネットワーク(NN)モデルでさえ、トレーニングデータから非線形性を抽出し、(1)収集したトレーニングデータが攻撃モデルをうまく表現できること、2)トレーニングセンターですべてのエージェントからのトレーニングデータが完全に学習できることから、攻撃者を適切に検出およびローカライズすることができることを示す。 0.84
Unfortunately, collecting good and enough data which perfectly fits the real attack model is usually difficult. 残念ながら、実際の攻撃モデルに完全に適合する十分なデータを集めることは、通常難しい。 0.77
First of all, due to the intrinsic of gossp-algorithm, it is difficult and expensive to collect sufficient training samples at each agent. まず第一に、gossp-algorithmの本質から、各エージェントに十分なトレーニングサンプルを収集することは困難で費用がかかる。 0.76
Also, with the emergence of new large-scale distributed agents in the network, sometimes it is hard to upload decentralized data at each agent to a fusion center due to storage and bandwidth limitations [37]. また、ネットワークに新たな大規模分散エージェントが出現すると、ストレージと帯域幅の制限のため、各エージェントの分散データを融合センタにアップロードすることは困難になることがある[37]。 0.75
Furthermore, as the insider attacks could occur at any agent in the network, the training data may not cover all the occurrences of the attack. さらに、ネットワーク内の任意のエージェントでインサイダー攻撃が発生する可能性があるため、トレーニングデータは攻撃のすべての発生をカバーできない可能性がある。 0.70
Therefore, some individually trained NN model at each agent may not fit in all insider attack events. したがって、各エージェントで個別に訓練されたNNモデルは、すべてのインサイダー攻撃イベントに適合しない可能性がある。 0.59
A new approach to alleviate these issues is to leverage the decentralized federated learning [38], which utilizes the collaboration of agents to perform data operations inside the network by iterating local computations and mutual interactions. これらの問題を緩和するための新しいアプローチは、エージェントの協調を利用して、ローカルな計算と相互の相互作用を繰り返すことで、ネットワーク内のデータ操作を実行する分散化された連邦学習[38]を活用することである。 0.66
Such a learning architecture can be extremely useful for learning agents with access to only local/private data in a communication constrained environment [39]. このような学習アーキテクチャは,通信制約環境におけるローカル/プライベートデータのみにアクセスする学習エージェントにとって極めて有用である[39]。 0.81
Specially, as one of the state-of-the-art approach in decentralized federated learning, gossip learning is very suitable for training NN models from decentralized data sources [40], with the advantages of high scalability and privacy preservation. 特に、分散連合学習における最先端のアプローチの1つとして、ゴシップ学習は、高スケーラビリティとプライバシ保護の利点を生かして、分散データソース[40]からnnモデルをトレーニングするのに非常に適しています。 0.58
Thus, we propose a collaborative peer-to-peer learning protocol to help training our NN models by gossip exchanges. そこで本稿では,ゴシップ交換によるNNモデルの学習を支援するために,協調的なピアツーピア学習プロトコルを提案する。 0.62
Specifically, each agent in the network has a local model with the same architecture, and only relies on local collaboration with neighbors to learn model parameters. 具体的には、ネットワーク内の各エージェントは同じアーキテクチャを持つローカルモデルを持ち、モデルパラメータを学ぶために隣人とのローカルなコラボレーションのみに依存している。 0.77
It is worth noting that in this process each agent trains the local model by its local data periodically, and then send the local model parameters to its neighbors. このプロセスでは、各エージェントがローカルデータを定期的にローカルモデルにトレーニングし、そのローカルモデルパラメータを隣人に送信する。
訳抜け防止モード: このプロセスでは、各エージェントはそのローカルデータによって定期的にローカルモデルをトレーニングする。 次に、ローカルモデルパラメータを隣人に送信します。
0.79
It is expected that each agent can learn a local model close to the global model (i.e., a NN trained by the center, which contains training data from all agents), so as to provide robustness in the case of insufficient and mismatched local data. 各エージェントは、グローバルモデルに近いローカルモデル(例えば、すべてのエージェントからのトレーニングデータを含むセンターによってトレーニングされたNN)を学習し、不十分で不一致なローカルデータの場合の堅牢性を提供することが期待されている。 0.84
It is also worth mentioning differences between this work and some previous work. また、この作品と以前の作品の違いについても言及する価値がある。 0.59
Previous work [19] aims at the 以前の仕事[19]は 0.57
score-based method for securing the gossip-based average consensus algorithm. ゴシップに基づく平均コンセンサスアルゴリズムのスコアベース確保法 0.70
[35] improves the score-based method by using AI-based methods while it still targeted at an average consensus algorithm. 35] 平均的なコンセンサスアルゴリズムを目標としながら,ai ベースの手法を用いてスコアベース手法を改善する。 0.70
We remark that The inputs for AI model in [35] does not always work for optimization algorithms. 35]におけるaiモデルのインプットは、最適化アルゴリズムで常に機能するとは限らない。 0.77
[13], [36] provide some preliminary results for protecting optimization algorithms while it only focus on partial neighboring information. [13],[36]は,部分隣接情報のみに焦点を当てながら,最適化アルゴリズムを保護するための予備的な結果を提供する。 0.79
This work is the first one which well elaborates AI-based methods for a DPS algorithm using full information from neighboring signal. この研究は、近隣の信号からの全情報を使ってDPSアルゴリズムのためのAIベースの手法を精巧にするための最初のものである。 0.65
More importantly, the proposed collaborative learning method is novel and effective to make the defense model more robust to different events of attacks, making our models more practical to multi-agent applications. より重要なことは、提案した協調学習手法は、攻撃の異なる事象に対して防御モデルをより堅牢にすることで、マルチエージェントアプリケーションに対して我々のモデルをより実用的なものにする。 0.62
In summary, the proposed AI-based strategies have following characteristics: 1) they can automatically learn appropriate decision models from the training data, thus reducing the dependence on complicated pre-designed models; 2) they adaptively scale the decision thresholds between 0 and 1, which reduces the difficulty of threshold setting; 3) they improve the performance of detecting and localizing attackers and show good adaptability to different degree of agents. 要約すると、提案したAIベースの戦略は、(1)訓練データから適切な決定モデルを自動的に学習し、複雑な事前設計モデルへの依存を低減し、2)決定しきい値を0から1に適応的にスケールし、しきい値設定の難しさを低減し、3)攻撃者の検出とローカライズのパフォーマンスを改善し、異なるエージェントの程度に適応性を示す。 0.87
4) they have strong robustness to the scenarios with insufficient training data, or mismatched training data. 4)不十分なトレーニングデータや不一致のトレーニングデータを持つシナリオに対して強い堅牢性を持つ。 0.77
Preliminary numerical results demonstrate that the proposed AI-based strategies are conducive to solve the insider attack problem faced by the DPS algorithm. 予備的な数値計算結果から,提案手法は,dpsアルゴリズムが直面するインサイダーアタック問題の解法であることが示唆された。 0.57
The rest of the paper is organized as follows. 残りの論文は以下の通り整理される。 0.66
In Section II, we describe the decentralized multi-agent system and the attack scheme against the DPS algorithm. 第2節では,分散マルチエージェントシステムとDPSアルゴリズムに対する攻撃方式について述べる。 0.79
In Section III, we review score-based strategies and propose two AI-based defense strategies to detect and locate attackers. 第3節では、スコアベースの戦略を見直し、攻撃者の検出と発見のための2つのaiベースの防御戦略を提案する。 0.49
Section IV introduces a collaborative peer-to-peer training protocol for NN, dealing with insufficient samples or mismatched samples available on different agents. 第4節では、NNのための協調的なピアツーピアトレーニングプロトコルを導入し、異なるエージェントで利用可能な不十分なサンプルやミスマッチしたサンプルを扱う。 0.56
Simulation results are given in Section V to confirm the effectiveness of the proposed strategies. 提案手法の有効性を確認するため,第5節でシミュレーション結果が得られた。
訳抜け防止モード: シミュレーション結果は第5節で示される 提案された戦略の有効性を確認するためです
0.71
We conclude this work in section VI. この作業は第6節で締めくくります。 0.47
II. SYSTEM MODEL II。 システムモデル 0.74
We consider a multi-agent network which can be defined by an undirected graph G = (V,E), wherein V = {1,··· , n} represents the set of all agents and E ⊆ V × V represents the set of all edges. 非向グラフ g = (v,e) で定義できるマルチエージェントネットワークを考えると、v = {1,··· , n} はすべてのエージェントの集合を表し、e,v × v はすべてのエッジの集合を表す。
訳抜け防止モード: 我々は、無向グラフ G = ( V, で定義できるマルチエージェントネットワークを考える。 ここで V = { 1, · · · · である。 n } はすべてのエージェントの集合を表し、E は V × V はすべてのエッジの集合を表す。
0.85
We define the set of the neighbor nodes of an agent i ∈ V by Ni = {vj ∈ V : (vi, vj) ∈ E}. エージェント i ∈ V の隣接ノードの集合を Ni = {vj ∈ V : (vi, vj) ∈ E} で定義する。 0.73
All the agents in the distributed network follow a gossip-based optimization protocol; see Algorithm 1. 分散ネットワーク内のすべてのエージェントは、ゴシップベースの最適化プロトコルに従っている。 0.74
That is, in each iteration of information exchange, an agent only directly communicates with its neighbors. つまり、情報交換の各イテレーションにおいて、エージェントは隣人と直接通信するだけである。 0.73
We thus define a time-varying graph as G(t) := (V,E(t)) for the tth iteration and the associated weighted adjacency matrix is denoted by A(t) ∈ Rn×n, where [A(t)]ij := Aij(t) = 0 if (vj, vi) /∈ E(t). したがって、時間変化グラフを t 反復に対して G(t) := (V,E(t)) と定義し、関連する重み付き隣接行列は A(t) ∈ Rn×n で表される。
訳抜け防止モード: したがって、時間変化グラフを g(t ) : = (v,) と定義する。 t 個の反復と関連する重み付き隣接行列に対する e(t ) ) は a(t ) ∈ rn×n と表記される。 ここで [ a(t)]ij : = aij(t ) = 0 if (vj,) である。 vi ) / tasktop e(t ) です。
0.80
For this network with n agents, we have the following assumption: Assumption 1. n 個のエージェントを持つこのネットワークに対しては、以下の仮定がある。 0.68
There exists a scalar ζ ∈ (0, 1) such that for all t ≥ 1 and i = 1,··· , n : すべての t ≥ 1 と i = 1,···· , n : に対して、スカラー (0, 1) が存在する。 0.74
• (cid:80)n • (cid:80)n 0.88
• Aij(t) ≥ ζ if (i, j) ∈ E(t), • The graph (V,∪B0 • Aij(t) ≥ {\displaystyle (i,j) ∈ E(t), • 図形 (V,\B0) について 0.85
i=1 Aij(t) = 1, Aij(t) = Aji(t); i=1 aij(t) = 1, aij(t) = aji(t); 0.86
(cid:96)=1E(t + (cid:96))) is connected for B0 < ∞. (cid:96)=1E(t + (cid:96)) は B0 < ∞ に対して連結である。 0.72
英語(論文から抽出)日本語訳スコア
Algorithm 1 The gossip-based optimization protocol Input: Number of instances K, and iterations T . アルゴリズム1 gossipベースの最適化プロトコル 入力:インスタンス数K、イテレーションT。 0.62
for k = 1,··· , K do Initial states: xk for t = 1,··· , T do k = 1,··· に対して、Kは初期状態である: xk for t = 1,··· , T do 0.87
i ∀ i ∈ V i ∈ V である。 0.74
i (0) = βk i (0) = βk 0.97
• Uniformly wake up a random agent i ∈ V • Agent i selects agent j ∈ Ni with probability Pij • The trustworthy agents i, j ∈ Vt update the states • The malicious agents follow the attack scheme to • ランダムエージェント i ∈ V • Agent i が確率 Pj でエージェント j ∈ Ni を選択する • 信頼できるエージェント i, j ∈ Vt が状態を更新する • 悪意のあるエージェントは攻撃スキームに従う。 0.83
according to the rules in (2). (2) の規則に従っている。 0.72
keep their original states, as seen in (3). (3)に示すように、元の状態を維持する。 0.63
end for end for n(cid:88) 終止符 終止符 n(cid:88) 0.69
i=1 The goal of these agents is cooperatively to solve the i=1 これらのエージェントの目標は 協力して解決すること 0.70
following optimization problem: min 次の最適化問題です ミン 0.59
x f (x) := x f (x) := 0.85
1 n fi(x) s.t. 1n fi(x) s.t. 0.83
x ∈ X . (1) x ∈ X。 (1) 0.82
where X ⊆ Rd is a closed convex set common to all agents and fi : Rd → R is a local objective function of agent i. Herein, fi is convex and not necessarily differentiable function which is only known to agent i. このとき X > Rd はすべてのエージェントに共通する閉凸集合であり、fi : Rd → R はエージェント i の局所目的函数である。
訳抜け防止モード: X > Rd はすべてのエージェントと fi に共通する閉凸集合である Rd → R はエージェント i の局所目的関数である。 fi は凸であり、エージェント i にしか知られていない必ずしも微分可能な関数ではない。
0.76
In this setting, we denote the optimal value of problem (1) by f (cid:63). この設定では、問題(1)の最適値を f (cid:63) で表す。 0.75
A decentralized solution to estimate f (cid:63) of this problem is the DPS algorithm [2]. この問題の f (cid:63) を推定する分散解は DPS アルゴリズム [2] である。 0.81
In this algorithm, each agent locally updates the decide variable by fusing the estimates from its neighbors and then take the subgradient of this function at the updated decide variable to be the decent direction for the current iteration. このアルゴリズムでは、各エージェントは、隣人からの推定値を抽出して決定変数を局所的に更新し、更新された決定変数でその関数の下位値を現在の反復の適切な方向とする。 0.76
To be more specific, when applied this algorithm to solve problem (1), it performs the following iterations: より具体的に言うと、このアルゴリズムを問題(1)に応用すると、次のイテレーションを実行する。 0.80
n(cid:88) j=1 n(cid:88) j=1 0.71
¯xi(t) = Aij(t)xj(t) . シュクシ(t) = aij(t)xj(t) である。 0.74
(cid:2) ¯xi(t) − γ(t) ˆ∇fi (cid:2) sxi(t) − γ(t) は fi である。 0.65
(cid:0) ¯xi(t)(cid:1)(cid:3) . (cid:0) はxi(t)(cid:1)(cid:3)。 0.68
(2) xi(t + 1) = PX (2) xi(t + 1) = PX 0.85
(cid:2) ·(cid:3) denotes the projection (cid:2) ·(cid:3) は射影を表す 0.70
for t ≥ 1, where Aij(t) is a non-negative weight and γ(t) > 0 is a diminishing stepsize. t ≥ 1 の場合、Aij(t) は非負の重みであり、γ(t) > 0 は減少段数である。 0.77
PX operation onto the set X and ˆ∇fi ( ¯xi(t)) is a subgradient at agent i of the local function fi at x = ¯xi(t). 集合 X 上の PX の操作と、x における局所函数 fi のエージェント i における次数(英語版)(subgradient) である。 0.70
Then, we have the following result: Fact 1. すると、以下の結果が得られる。 0.50
[2] Under Assumption 1. [2]と仮定された。 0.58
If (cid:107) ˆ∇fi(x)(cid:107) ≤ C1 for some t=1 γ(t) = ある t=1 γ(t) = に対して (cid:107) >fi(x)(cid:107) ≤ C1 であれば 0.70
C1 and for all x ∈ X, and the step size satisfies(cid:80)∞ ∞,(cid:80)∞ t→∞(cid:107)xi(t) − xj(t)(cid:107) = 0 . C1 とすべての x ∈ X に対して、ステップサイズは(cid:80)∞ ∞,(cid:80)∞ t →∞(cid:107)xi(t) − xj(t)(cid:107) = 0 を満たす。 0.87
t=1 γ2(t) < ∞, then for all i, j ∈ V we have t→∞ f (xi(t)) = f (cid:63) and lim The above fact tells that for these convex problems, the DPS method will converge to an optimal solution of problem (1). t=1 γ2(t) < ∞ ならば、すべての i, j ∈ V に対して t →∞ f (xi(t)) = f (cid:63) and lim となる。
訳抜け防止モード: t=1 γ2(t ) < ∞ ならば、すべての i, j ∈ V に対して t →∞ f ( xi(t ) ) = f ( cid:63 ) である。 そして lim 上記の事実は これらの凸問題に対して、DPS法は問題の最適解(1)に収束する。
0.84
In the next, we will discuss how this convergence will change when there is attack within the network. 次に、ネットワーク内で攻撃があった場合、この収束がどのように変化するかについて議論する。 0.63
lim A. Data Injection Attack From Insider リム A。 インサイダーからのデータインジェクション攻撃 0.64
In this setting, we assume that the set of agents V can be divided into two subsets: the set of trustworthy agents Vt and この設定では、エージェントVの集合は信頼に値するエージェントVtと2つのサブセットに分けることができると仮定する。 0.82
3 the set of malicious agents (attackers) Vm, as seen in Fig 1. 3 図1に示すように、悪意のあるエージェント(攻撃者)Vmのセット。 0.83
We have V = Vt∪Vm and n = |Vt|+|Vm|. V = Vt と n = |Vt|+|Vm| を持つ。 0.68
In our attack model, attackers are defined as agents whose estimates (or states) can not be affected by other agents, and those coordinated attackers try to drag the trustworthy agents to their desired value. 我々の攻撃モデルでは、攻撃者は他のエージェントの影響を受けない推定(または状態)のエージェントとして定義され、協調した攻撃者は信頼できるエージェントを望ましい値に引きずり込もうとします。 0.73
If i ∈ Vt, a trustworthy agent will perform the rules in (2). i ∈ Vt の場合、信頼できるエージェントは (2) でルールを実行する。 0.78
Otherwise, an attacker j ∈ Vm will update its state with the following rule: そうでない場合、攻撃者j ∈ vmは以下のルールで状態を更新する。 0.74
xj(t) = α + rj(t), ∀ j ∈ Vm . xj(t) = α + rj(t) である。 0.61
(3) where α is the target value of attackers, rj(t) is an artificial noise generated by attackers to confuse the trustworthy agents. (3) α が攻撃者の目標値である場合、rj(t) は信頼できるエージェントを混乱させるために攻撃者が生成する人工ノイズである。
訳抜け防止モード: (3) αは攻撃者の目標値 rj(t) ) 信頼できるエージェントを混乱させるために攻撃者が生成する人工ノイズである。
0.87
If there are more than one attacker in the network, we assume that they will coordinate with each other to converge to the desired value α. ネットワーク内に複数の攻撃者がいる場合、彼らは互いに協調して所望の値 α に収束すると仮定する。 0.72
Meanwhile, to disguise attacks, they will independently degenerate artificial noise rj(t) which decays exponentially with time, i.e., limt→∞ (cid:107)rj(t)(cid:1 07) = 0 for all j ∈ Vm. 一方、攻撃を偽装するために、それらは時間とともに指数関数的に減衰する人工ノイズ rj(t) を独立に退化させ、すなわちすべての j ∈ Vm に対して limt →∞ (cid:107)rj(t)(cid:1 07) = 0 となる。
訳抜け防止モード: 一方、攻撃を偽装する。 彼らは独立して 人工ノイズrj(t)を すべての j ∈ Vm に対して limt →∞ ( cid:107)rj(t)(cid:10 7 ) = 0 となる。
0.81
For the time varying network, let E(Vt; t) be the edge set of the subgraph of G(t) with only the trustworthy agents in Vt. 時間的に異なるネットワークに対して、E(Vt; t) を G(t) の部分グラフの端集合とし、Vt の信頼できるエージェントのみとする。 0.77
The following assumption is needed to ensure a successful attack on the DPS algorithm: Assumption 2. DPSアルゴリズムに対する攻撃を成功させるためには、以下の仮定が必要である。 0.76
There exists B1, B2 < ∞ such that for all t ≥ 1, 1) the composite sub-graph (Vt,∪t+B1 (cid:96)=t+1E(Vt; (cid:96))) is connected; 2) there exists a pair i ∈ Vt, j ∈ Vm with (i, j) ∈ E(t) ∪ . B1, B2 < ∞ が存在して、すべての t ≥ 1, 1) に対して合成部分グラフ (Vt, t+B1 (cid:96)=t+1E(Vt; (cid:96))) が連結である。
訳抜け防止モード: すべての t ≥ 1 に対して b1, b2 < ∞ が存在する。 1 ) 複合部分グラフ(vt,\t+b1 (cid:96)=t+1e(vt ; (cid:96 ) )は連結である。 2 ) 対 i ∈ vt が存在する。 j ∈ vm with ( i, j ) ∈ e(t ) ] である。
0.81
. . ∪ E(t + B2 − 1). . . E(t + B2 − 1) である。 0.86
Based on this assumption, we have the following fact: この仮定に基づき、以下の事実がある。 0.63
Fact 2. [13] Under Assumptions 1 and 2. 事実2。 [13] 仮定 1 と 2 に基づく。 0.71
If (cid:107) ˆ∇fi(x)(cid:107) ≤ C2 for some C2 and for all x ∈ X, and γ(t) → 0, we have: C2 とすべての x ∈ X に対して (cid:107) シュフィ(x)(cid:107) ≤ C2 で、γ(t) → 0 であれば、 0.88
t→∞ max lim i∈Vt t→∞ max lim ipassvt 0.76
(cid:107)xi(t) − α(cid:107) = 0 . (cid:107)xi(t) − α(cid:107) = 0。 0.89
This fact implies that in this attack scheme, the attackers will succeed in steering the final states. この事実は、この攻撃計画において、攻撃者が最終状態の運営に成功することを意味する。 0.64
This was also proved in our previous work [13]. これは以前の仕事[13]でも証明されました。 0.67
III. DETECTION AND LOCALIZATION STRATEGIES III。 検出と局所化戦略 0.68
The DPS algorithm runs in a fully decentralized fashion in trustworthy agents i ∈ Vt. DPSアルゴリズムは信頼に値するエージェント i ∈ Vt で完全に分散化された方法で実行される。 0.64
The neighborhood detection (ND) task and neighborhood localization (NL) task are then introduced for detecting and localizing attacker. 次に、アタッカーの検出と位置決めを行うために、近隣検出(ND)タスクと周辺局所化(NL)タスクを導入する。 0.61
To facilitate our discuss, we consider the following hypotheses. 議論を容易にするため、以下の仮説を考察する。 0.63
The ND task is defined as follows: Hi 0 : Ni ∩ Vm = ∅, No neighbor is an attacker, Hi 1 : Ni ∩ Vm (cid:54)= ∅, At least one neighbor is the attacker, (4) where Hi 1 as two events of agent i for the ND task. ndタスクは次のように定義されている: hi 0 : ni s vm = s, no neighbor is an attack, hi 1 : ni s vm (cid:54)= s, least one neighbor is the attack, (4) hi 1 as two events of agent i for the nd task。 0.76
When event Hi 1 is true at agent i, the second task is to check if the neighbor j ∈ Ni is an attacker. イベント Hi 1 がエージェント i で真であるとき、第2のタスクは、隣の j ∈ Ni が攻撃者かどうかを確認することである。 0.72
The NL task is defined as follows: Hij 0 : j /∈ Vm, Neighbor j is not an attacker, Hij 1 : j ∈ Vm, Neighbor j is an attacker, where Hij 0 and Hij task. NL タスクは次のように定義される: Hij 0 : j /∂ Vm, Neighbor j は攻撃者ではなく、 Hij 1 : j ∈ Vm, Neighbor j は攻撃者、そこで Hij 0 と Hij タスク。 0.89
If event Hij もしイベントhijなら 0.70
1 are as two events of agent i for the NL 1 is true, we say that the attacker is localized. 1 は nl 1 のエージェント i の 2 つのイベントが真であるように、攻撃者は局所化されていると言う。 0.65
0 and Hi (5) 0 と Hi (5) 0.84
英語(論文から抽出)日本語訳スコア
4 A. The Score-based Method 4 A。 スコアに基づく方法 0.79
Fig. 1. Neighborhood tasks in the attack detection scheme. フィギュア。 1. 攻撃検知方式における周辺課題 0.63
Each trustworthy agent performs ND and NL tasks independently for isolating attacker from the network. 各信頼できるエージェントは、ネットワークから攻撃者を隔離するために独立してNDおよびNLタスクを実行する。 0.58
We remark that such hypotheses were also made in previous work [19], [36]. 先行研究[19],[36]においても,このような仮説が立てられた。 0.75
An illustration of the neighborhood detection and localization tasks is shown in Fig 1. 近傍検出および局所化タスクの図を図1に示す。 0.60
Notice that the NL task is executed only if the event Hi 1 in the ND task is true. NLタスクは、NDタスクのイベントHi1が真である場合にのみ実行される。 0.72
Moreover, once the attacker is localized, trustworthy agents will disconnect from the attacker in the next communication. さらに、攻撃者がローカライズされると、信頼できるエージェントが次の通信で攻撃者から切り離される。 0.77
In this way, it is expected that the network can exclude all the attackers from the network. このようにして、ネットワークはネットワークからすべての攻撃者を排除できることが期待される。 0.80
To proceed our tasks, we run the asynchronous gossip-based optimization algorithm (Algorithm 1) for K instances. タスクを進めるために、Kインスタンスに対して非同期ゴシップに基づく最適化アルゴリズム(Algorithm 1)を実行する。 0.75
We denote ˜X k i as the neighborhood state matrix collected by agent i in kth instance, i.e., k ∈ [1,··· , K]. 我々は、k 番目の例、すなわち k ∈ [1,··· , K] においてエージェント i が収集した近傍状態行列として yX k i を示す。 0.74
The ND and NL tasks can be described as follows: ND と NL のタスクは次のように記述できる。 0.80
˜X k i :=[xk x k である。 i :=[xk] 0.48
i , xk 1,··· , xk i , xk 1··· , xk 0.91
yi = FND( ˜X 1 yi = FND( >X 1 ) 0.87
j ,··· , xk|Ni|](cid:62) ∀ j ∈ Ni, i ,··· , ˜X K i ) j ,··· , xk|Ni|] (cid:62) > j ∈ Ni, i ,··· , >X K i ) 0.90
δ, zij = FNL( ˜X 1 δ, zij = FNL( sX 1) 0.86
i ,··· , ˜X K i ) i ,··· , , X K i ) 0.82
. 0 Hi 1≷ Hi Hij 1≷ Hij . 0 ハイ1 ハイ1 ハイ1 ハイ 0.69
0 As a remedy to protect these distributed optimization algorithms, such score-based methods have been studied in [18], [19], which stem from statistical techniques. 0 これらの分散最適化アルゴリズムを保護するため,[18], [19]では, 統計的手法に基づくスコアベースの手法が研究されている。 0.86
For gossip-based DPS algorithm, a temporal difference strategy (TD) in [13] and a spatial difference strategy (SD) in [36] are proposed to detect and localize the attackers, and these two strategies are reviewed below. ゴシップに基づくDPSアルゴリズムでは, [13] における時間差分戦略 (TD) と [36] における空間差分戦略 (SD) が攻撃者の検出とローカライズのために提案され, 以下の2つの戦略を概説する。 0.86
1) Temporal Difference Strategy: Since the expected initial states about the mean of attackers and trustworthy agents are different, when t → ∞, the network will be mislead by the i (∞)]. 1) 時間差戦略: 攻撃者および信頼できるエージェントの平均に関する期待初期状態は異なるので、t → ∞ の場合、ネットワークは i (∞) によって誤解される。 0.76
This implies that the attackers to E[xk difference between the initial state and the steady state can be used to detect anomalies. これはアタッカーが初期状態と定常状態のE[xk]差を検出できることを意味している。 0.66
For each trustworthy agent i ∈ Vt, the following score can be evaluated 1: j (T ) − xk 信頼できる各エージェント i ∈ Vt について、以下のスコアを評価できる: j (T ) − xk 0.74
j (∞)] = ¯α = E[xk K(cid:88) j (∞)] = sα = E[xk K(cid:88) 0.83
(9) Herein, T → ∞ is sufficiently large, d is the state dimension of agents, 1 is an all-one vector. (9) ここで、t → ∞ は十分大きく、d はエージェントの状態次元、1 はオールワンベクトルである。 0.78
xk j (0) are respectively the last and the first state for agent j observed by agent i. xk j (0) はそれぞれエージェント i が観測するエージェント j の最後の状態と最初の状態である。 0.88
To discern the events in ND task, the detection criterion is defined as follow: NDタスクにおけるイベントを識別するために、検出基準は次のように定義される。 0.68
j (0)(cid:1), j ∈ Ni. j (0)(cid:1), j ∈ Ni。 0.88
1(cid:62)(cid:0)xk 1(cid:62)(cid:0)xk 0.81
j (T ) and xk j (T ) と xk 0.84
1 Kd ξij := k=1 1Kd ジイ:= k=1 0.68
(cid:88) j∈Ni (cid:88) jjni 0.60
(cid:12)(cid:12)(cid :0)ξij − ξi (cid:12)(cid:12)(cid :0)→ij − si 0.66
(cid:1)(cid:12)(cid: 12) Hi (cid:1)(cid:12)(cid: 12) Hi 0.76
0≶ Hi 1 δTD. 0)はい。 1 δTD。 0.67
(10) ˆyi := (10) ジイ := 0.78
where ξi = 1/|Ni|(cid:80) 1/|Ni|(cid:80) 0.59
1 |Ni| (6) 1 |Ni| (6) 0.78
(7) (8) of agent i. (7) (8) エージェントIの 0.74
Intuitively, E[ˆyi] = 0 when the event Hi otherwise E[ˆyi] (cid:54)= 0 when the event Hi pre-designed threshold of the ND task. 直観的には、イベント Hi のとき E[ yi] = 0 でなければ E[ yi] (cid:54) = 0 で、イベント Hi は ND タスクの事前指定しきい値である。 0.71
For the NL task, these two events Hij NL タスクの場合、これらの2つのイベント Hij 0.71
ξij is the average of neighborhood 0 is true, 1 is true. ジ は 0 近傍の平均は真であり、1 は真である。 0.80
δTD is a 1 and Hij δTD は a 1 と Hij 0.87
0 are checked 0 がチェックされる 0.73
j∈Ni by the following criterion: jjni 以下の基準によって 0.60
ˆzij := |ξij| Hij 1≶ Hij シュジイ:= | ij| Hij 1 = Hij 0.71
0 TD, ∀ j ∈ Ni . 0 ^ TD, ^ j ∈ Ni 。 0.75
(11) j ∈ Rd is the state vector of agent j ∈ Ni, which can where xk be directly obtained by agent i ∈ Vt from its neighbors, yi ∈ R is a metric that indicates whether an attacker is present in the neighborhood of agent i, and zij = [zi1,··· , zi|Ni|](cid:62) ∈ R|Ni| is the metric vector for localization task. (11) j ∈ rd はエージェント j ∈ ni の状態ベクトルであり、xk はエージェント i ∈ vt によってその近傍から直接得ることができ、yi ∈ r はエージェント i の近傍に存在するかどうかを示す計量であり、zij = [zi1,···· , zi|ni|](cid:62) ∈ r|ni| はローカライゼーションタスクの計量ベクトルである。 0.84
Herein, δ > 0 and  > 0 are some pre-designed thresholds. ここで δ > 0 と s > 0 は事前設計されたしきい値である。 0.71
On top of the detection and localization strategies, we have 検出とローカライゼーションの戦略に加えて、私たちは 0.73
an important assumption about the initial states: 初期状態に関する重要な仮定です 0.66
Assumption 3. We have the prior information about expected initial states about the mean of attackers E[xk ¯α, j ∈ Vm and trustworthy agents E[xk Moreover, ¯α (cid:54)= ¯β in general. 仮定3。 我々は、攻撃者の平均値である e[xk ]α, j ∈ vm と信頼に値するエージェント e[xk] について、予測された初期状態に関する事前情報を持っている。 0.65
the j (0)] = i (0)] = ¯β, i ∈ Vt . j (0)] = i (0)] = シュβ, i ∈ Vt である。 0.78
Note that this assumption is practical as the attacker always aims at dragging the trustworthy agents to its desired value, which is usually different from the optimal solution. この仮定は、攻撃者が常に信頼に値するエージェントを望ましい値にドラッグすることを目的としており、通常は最適解とは異なる。 0.74
Otherwise, we may not consider it as a meaningful attack. さもなければ、意味のある攻撃とは考えないかもしれない。 0.56
Remark 1. FND(·) and FNL(·) are statistical decision functions judiciously designed for ND and NL tasks respectively. 備考1。 FND(·) と FNL(·) は、それぞれ ND と NL のタスク用に任意に設計された統計的決定関数である。 0.60
For each agent i ∈ Vt, these decision functions are used to calculate the criterion metrics to identify attackers. 各エージェント i ∈ Vt に対して、これらの決定関数は攻撃者を特定するための基準値を計算するために使用される。 0.63
Herein, TD is a pre-designed threshold used to identify which neighbor is the attacker. ここでは、-TD は、どの隣人が攻撃者であるかを特定するために、事前に設計されたしきい値である。 0.40
Note that E[ˆzij] is close to 0 if an agent j is an attacker, seen in (9). エージェント j が攻撃者(9)である場合、E[szij] は 0 に近いことに注意してください。 0.83
2) Spatial Difference Strategy: According to (3), attackers always try to mislead the network to their desired value, and thus the transient state in the network will also be affected during the attack process. 2) 空間的差異戦略: (3) によれば、攻撃者は常にネットワークを所望の値に誤解させようとするので、攻撃プロセス中にネットワークの過渡状態も影響を受ける。 0.79
Unlike the TD method that only uses the initial state and steady state, the transient states are considered in the SD method for better performance. 初期状態と定常状態のみを使用するTD法とは異なり、過渡状態はSD法で考慮され、性能が向上する。 0.72
We expect that the expected state E[xk j (t)] between neighbor j and monitoring agent i will behave differently in events H0 and H1, i.e., j ∈ Ni and 0 < t < ∞. 我々は、隣接する j と監視エージェント i の間の期待状態 E[xk j (t)] が、H0 と H1 の事象、すなわち j ∈ Ni と 0 < t < ∞ において異なる振る舞いをすることを期待している。 0.78
For the ND task, agent i evaluates the following metrics: NDタスクでは、エージェントiは以下の指標を評価する。 0.63
ϕk ij := j (t) − xk xk (cid:16) 1 K(cid:88) φk ij := j (t) − xk xk (cid:16) 1 K(cid:88) 0.86
(cid:17)2 Hi iteration t and sums it over all the iterations to obtain(cid:0)xk (cid:17)2 Hi iteration t and sums it over all iterations to obtain (cid:0)xk 0.97
1For each instance k, each agent evaluates ∆j (t) (cid:44) xk 1 それぞれのインスタンス k について、各エージェントは sj (t) (cid:44) xk を評価する 0.62
1 |Ni| 1(cid:62)ϕk 1 |Ni| 1(cid:62)φk 0.75
0≶ Hi ˇyi := 0)はい。 ジイ := 0.50
j∈Ni i (t) jjni i (t) 0.64
Kd k=1 ij 1 Kd k=1 ij 1 0.78
(12) δSD. (13) (12) δSD。 (13) 0.84
j (t) − xk j (T ) − xk j (t) − xk j (T ) − xk 0.85
j (t − 1) at j (t − 1) at で 0.93
j (0)(cid:1) j (0)(cid:1) 0.94
i (t) − xk (cid:17) i (t) − xk (cid:17) 0.98
, j ∈ Ni. (cid:16) T(cid:88) (cid:88) , j ∈ Ni。 (cid:16)t(cid:88)(ci d:88) 0.78
t=0 t=0 0.59
英語(論文から抽出)日本語訳スコア
5 chosen agent2 takes the role as an attacker. 5 選ばれたエージェント2は 攻撃者としての役割を担っている 0.71
Based on Assumption 3, we run the asynchronous gossip-based optimization algorithm (Algorithm 1) for K instances and record ˜X k i as the data samples with the ground truth label ‘1’ for event Hi 1 where agent i is either in the neighborhood of (next to) the attacker or beyond the neighborhood of (far from) the attacker. Assumption 3に基づいて、Kインスタンスの非同期ゴシップベースの最適化アルゴリズム(Algorithm 1)を実行し、攻撃者の近辺(次)か、あるいは攻撃者の近辺(遠く)にあるエージェントiがイベントHi1の真理ラベル‘1’でデータサンプルとして shX ki を記録します。 0.73
We remark here that ˜X k i ここで言う「x k i」は 0.53
is the local data collecting by agent i which is not allowed to exchange among agents. エージェントIが収集したローカルデータです エージェント間での交換は許されません 0.77
On the other hand, ground truth label ‘0’ for event Hi 0 can be easily obtained by running gossip-based algorithm on G. We remark here that how to specifically set the training data collecting process is a challenging problem while it is beyond the scope of this work. 一方、イベントHi0の「0」は、Gでゴシップベースのアルゴリズムを実行することで簡単に得ることができ、トレーニングデータ収集プロセスを具体的に設定する方法は、この作業の範囲を超えながら、難しい問題である、と我々は述べている。 0.77
Herein, we simply assume that each agent can obtain its own training data with correct labels. ここで、各エージェントが正しいラベルで独自のトレーニングデータを得ることができると仮定する。 0.74
Other technique problems about the details of the training process will be included in another work. トレーニングプロセスの詳細に関する他のテクニック問題は、別の作業に含まれます。 0.83
1) Temporal Difference Strategy via NN: Armed with training data, we propose a method called TDNN, which uses the time difference values as the input of the NN to perform neighborhood tasks, as illustrated in Fig 2. 1) NNによる時間差戦略: トレーニングデータと連携して、図2に示すように、NNの入力として時間差値を用いて近隣タスクを実行するTDNNという手法を提案する。 0.82
Based on the metric in (9), the inputs for the two neighborhood tasks are as follows, 9)のメートル法に基づいて、2つの周辺タスクの入力は次のとおりである。 0.72
a0 = ˆa0 = [ξi1, ξi2 ··· , ξiM ](cid:62). a0 = .a0 = [.i1, .i2 ··· , .iM ] (cid:62)。 0.66
(17) where ξij can be obtained by agent i. (17) ジイはエージェントIによって得ることができる。 0.70
For the ND task, the computation process of NN can be described below: h = 1, ..., n − 1; ND タスクの場合、NN の計算過程は以下のようになる: h = 1, ..., n − 1; 0.72
(18) ah = σ(W hah−1 + bh), ˜yi = g(W nan−1 + bn), (18) a = σ(W hah−1 + bh)、 syi = g(W nan−1 + bn) 0.86
˜yi Hi 1≷ Hi 0 ジイ ハイ1 ハイ 0 0.65
δNN, (19) where a0 is the input of NN. δNN (19) ここで a0 は nn の入力である。 0.73
σ(·) is the activation function, g(·) is the sigmoid function defined as g(·) = 1/(1 + e−x), W h ∈ RLh×Lh−1 is the weight matrix between the layer h and layer h− 1, Lh represents the number of neurons in layer h, bh ∈ RLh and ah ∈ RLh are the bias vector and the activation output in the layer h, respectively. σ(·) は活性化関数、g(·) はシグモノイド関数、g(·) はg(·) = 1/(1 + e−x) と定義される、Wh ∈ RLh×Lh−1 は層 h と層 h−1 の間の重み行列、Lh は層 h のニューロンの数、bh ∈ RLh は層 h の活性化出力である。
訳抜け防止モード: σ ( · ) は活性化函数、g ( · ) は g ( · ) = 1/(1 + e−x ) と定義されるシグモノイド函数である。 Wh ∈ RLh×Lh−1 は層 h と層 h− 1 の間の重み行列である。 Lhは層h, bh ∈ RLhのニューロン数を表す そして、a ∈ RLh は層 h におけるバイアスベクトルと活性化出力である。
0.81
˜yi ∈ R is the expected output, and δNN ∈ [0, 1] is some prescribed threshold for detection task. ジイ ∈ r は期待出力であり、δnn ∈ [0, 1] は検出タスクの所定のしきい値である。 0.78
For the NL task, a similar NN structure is used, except for the number of neurons in the output layer. NLタスクでは、出力層内のニューロンの数を除いて、同様のNN構造が使用される。 0.66
The design is given as follows, デザインは以下のとおりである。 0.78
ˆah = σ( ˆW h ˆah−1 + ˆbh), ˜zi = g( ˆW n ˆan−1 + ˆbn), sh = σ( sW h sah−1 + sbh)、 szi = g( sW n san−1 + sbn) である。 0.67
h = 1, ..., n − 1; h = 1, ..., n − 1; 0.77
˜zij Hij 1≷ Hij ジジイ Hij (複数形 Hijs) 0.39
0 NN, (20) 0 NN。 (20) 0.74
(21) where ˆa0 is the input of NN, ˆW h, ˆbh, and ˆah are the weight matrix, bias term, and activation output in NN, respectively, ˜zi = [˜zi1,··· , ˜ziM ] ∈ RM is the expected output of NL task, and NN ∈ [0, 1] is some prescribed threshold. (21) a0 が nn の入力であり、sw h 、sbh 、sah が nn の重み行列、バイアス項、アクティベーション出力であり、sz = [ szi1,···· , szim ] ∈ rm が nl タスクの期待出力であり、sn ∈ [0, 1] が所定の閾値である。
訳抜け防止モード: (21) ここで、a0 は NN の入力であり、wh 、bh 、hh は重み行列である。 バイアス項とNNのアクティベーション出力はそれぞれ、szi = [ szi1, · · ·, sziM ] ∈ RM は NL タスクの期待出力である。 そして、n ∈ [0, 1 ] は所定のしきい値である。
0.80
Notice that the actual output is encoded by one-hot vector during training stage, such as ˜zi = ej if j ∈ Vm, see Fig 2 (Right). 実際の出力は訓練段階で1ホットベクトルでエンコードされていることに注意し、例えば、j ∈ Vm のとき、szi = ej などである。 0.68
2There could be more than one attackers in the training network while 2 訓練ネットワークには複数の攻撃者がいる可能性があります 0.77
herein we only consider the simplest case. ここでは最も単純な場合のみ考慮する。 0.62
Fig. 2. The TDNN method at trustworthy agent i: (Left) NN for ND task, (Right) NN for NL task. フィギュア。 2. 信頼に値するエージェント i: (Left) NDタスクのNN, (Right) NLタスクのNN。
訳抜け防止モード: フィギュア。 2. 信頼に値するエージェントi : (左)NDタスクのためのTDNN法 (右)NLタスク用のNN。
0.68
SDNN shares a similarly structure with TDNN. SDNNはTDNNと同様の構造を持っている。 0.72
where i (t) = 1/|Ni ∪ i| (cid:88) どこに i (t) = 1/|Ni > i| (cid:88) 0.72
xk j∈{Ni∪i} xk jj (複数形 jjs) 0.62
xk j (t) (14) xk j (t) (14) 0.85
is the neighborhood average of agent i when iterating t in instance k. ϕk ij is the sum of differences between neighbor agent j and the neighborhood average xk i (t) in all iterations. 例えば k. φk ij において t を反復すると、エージェント i の近傍平均は、隣のエージェント j とすべての反復における近傍平均 xk i (t) との差の和である。 0.76
δSD is a pre-designed threshold. δSDは事前に設計された閾値である。 0.48
For the NL task, we compare the state of neighbor agent j with agent i to check the events in (5). NL タスクでは、隣接するエージェント j の状態とエージェント i を比較して (5) の事象をチェックする。 0.69
The following criteria are used: 以下の基準が用いられる。 0.77
T(cid:88) (cid:16) 1 T(cid:88) (cid:16) 1 0.81
t=0 (cid:0)xk j (t) − xk K(cid:88) t=0 (cid:0)xk j (t) − xk K(cid:88) 0.76
i (t)(cid:1) − ϕk (cid:17)2 Hij i (t)(cid:1) − φk (cid:17)2 Hij 0.88
1(cid:62)ϕk 1(cid:62)φk 0.78
ij Kd k=1 ϕk ij Kd k=1 φk 0.77
ij := ˇzij := ij := はzij := 0.84
SD,∀j ∈ Ni. sd,j ∈ ni である。 0.54
0≶ Hij 1 ii, j ∈ Ni. 0>hij 1 i, j ∈ Ni。 0.75
(15) (16) ii is calculated by agent i itself, seen in (12). (15) (16) ii は (12) に見られる i エージェントによって計算される。 0.84
ϕk where ¯ϕk ij is the metric between agent i and agent j, and SD is a pre-designed threshold used to identify the attacker. φk エージェント i とエージェント j の間のメートル法であり、攻撃者を特定するために使われる事前設計されたしきい値である。 0.74
B. The AI-based Method B。 AIに基づく手法 0.81
In fact, the reason why (10), (11), (13) and (16) take effect is that the anomalies will cause the the measured metrics to behave statistically different. 実際、(10), (11), (13), (16) が効果を発揮する理由は、異常が測定された指標が統計的に異なる振る舞いをするからである。
訳抜け防止モード: 実際、なぜ(10)、(11)なのか。 ( 13 ) and ( 16 ) 効果を 異常は測定されたメトリクスが統計的に異なる振る舞いをする原因となります。
0.80
In such score-based methods, these decision functions of ND and NL tasks are approximately linear or quadratic functions, which fuse the states obtained by agent i into a scalar score for classification. このようなスコアベース手法では、NDおよびNLタスクのこれらの決定関数は概して線形あるいは二次関数であり、エージェント i によって得られた状態をスカラースコアに融合して分類する。 0.66
A natural question that follows is whether there exists more sophisticated nonlinear functions that can better classify those events in the two neighborhood tasks. 以下の自然な疑問は、2つの近傍タスクにおいてこれらの事象をよりよく分類できるより洗練された非線形関数が存在するかどうかである。
訳抜け防止モード: 自然な疑問は 2つの近傍タスクでこれらの事象をよりよく分類できるより洗練された非線形関数が存在する。
0.72
This is a natural application of AI technology for learning the complex mapping relationships in a classification problem. これは、分類問題における複雑なマッピング関係の学習にAI技術の自然な応用である。 0.82
In the following, we propose to apply NN to handle the ND and NL tasks. 以下にNDタスクとNLタスクの処理にNNを適用することを提案する。 0.67
Let M = maxi |Ni| be the input dimension of these NNs. M = maxi |Ni| をこれらのNNの入力次元とする。 0.75
Then, NNs can be trained at each monitoring agent in an offline manner using data collected from each agent. そして、各エージェントから収集したデータを使用して、オフラインで各監視エージェントでnnをトレーニングすることができる。
訳抜け防止モード: その後、NNは各監視エージェントでオフラインでトレーニングできる。 各エージェントから収集されたデータを使います
0.71
To facilitate our approach, we use the following process to collect training data for the AI-based methods: Assumption 4. アプローチを容易にするために、我々は以下のプロセスを用いてAIベースの手法のトレーニングデータを収集する。 0.75
Assume that we have set a training data collecting process which contains P training network Gp = (Vp,E) for p = 1, 2, .., P . p = 1, 2, ., P に対して P トレーニングネットワーク Gp = (Vp, E) を含むトレーニングデータ収集プロセスを設定したと仮定する。 0.79
For each network Gp, a randomly 各ネットワークGpに対してランダムに 0.83
英語(論文から抽出)日本語訳スコア
6 2) Spatial Difference Strategy via NN: Both TD and TDNN only utilize the initial state and the steady state of agents rather than the transient states, leading to the possibility of losing some key features in the neighborhood tasks. 6 2) NNによる空間的差分戦略:TDとTDNNはいずれも一時的な状態ではなく,初期状態と定常状態のみを利用しており,近隣のタスクにおいて重要な特徴を失う可能性がある。 0.83
In particular, the neighborhood transient state information is not effectively utilized for extracting key classification features. 特に、近隣過渡状態情報は、キー分類特徴の抽出に有効に利用されない。 0.70
Therefore, we propose a strategy called SDNN to improve the detection and localization performance by using transient states and NN. そこで本研究では,過渡状態とnnを用いて検出および局所化性能を向上させるためのsdnnと呼ばれる手法を提案する。
訳抜け防止モード: そこで我々はSDNNと呼ばれる戦略を提案する。 過渡状態とNNを用いて検出および位置決め性能を向上させる。
0.65
As a malicious agent always tries to influence and steer the trustworthy agents away from the true value, we have E[xk 0 ]. 悪意のあるエージェントは常に、信頼できるエージェントを真の価値から遠ざけようとするので、E[xk 0 ]があります。 0.69
Thus, we can compare the state of neighbor agent j and the neighborhood average of agent i over time. したがって、隣接するエージェント j の状態とエージェント i の近傍平均を時間とともに比較することができる。 0.82
The metrics for ND and NL tasks can be described as follows: NDタスクとNLタスクのメトリクスは次のように説明できる。 0.66
j (t) − xk j (t) − xk 0.85
j (t) − xk j (t) − xk 0.85
i (t)|Hij i (t)|Hij 1 ] (cid:54)= E[xk T(cid:88) i (t)|Hij i (t)|Hij 1 ] (cid:54) = E[xk T(cid:88) 0.96
i (t)(cid:1), j ∈ Ni. i (t)(cid:1), j ∈ Ni。 0.88
sk ij := (cid:0)xk j (t) − xk K(cid:88) sk ij := (cid:0)xk j (t) − xk K(cid:88) 0.89
t=0 χij := 1 Kd t=0 ジイ:= 1Kd 0.64
k=1 1(cid:62)sk k=1 1(cid:62)sk 0.74
ij, j ∈ Ni. ij, j ∈ Ni。 0.81
(22) (23) where xk j (t) is the tth states of agent j at instance k, sk ij is the sum of statistical differences between agent j and the i (t) has been neighborhood average of agent i. (22) (23) xk j (t) がエージェント j の t 番目の状態である場合、sk ij はエージェント j と i (t) の間の統計的な差の和であり、エージェント i の近傍平均である。 0.84
Note that xk defined in (14). (14) で定義される xk に注意。 0.78
Herein, our goal is to accurately detect insider attacks and identify whether the attacker appears in the neighborhood of agent i. ここで、我々の目標は、インサイダー攻撃を正確に検出し、攻撃者がエージェントiの近傍に現れるかどうかを識別することである。 0.59
The detection structures of SDNN are similar with that for TDNN, as seen in Fig 2. SDNNの検出構造は、図2に示すように、TDNNと似ている。 0.76
Therein, we use the following inputs for these NN models of ND and NL tasks: そこで、これらのNDおよびNLタスクのNNモデルに対して以下の入力を使用する。 0.68
a0 = ˆa0 = [χi1, χi2,··· , χiM ](cid:62). a0 = .a0 = [.i1, .i2,·· , .iM ] (cid:62)。 0.69
(24) IV. COLLABORATIVE LEARNING FOR A ROBUST MODEL In previous sections, we have introduced how to use NN to help detect and localize the insider attackers. (24) IV。 前節のロバストなモデルのための協調学習では、インサイダー攻撃の検出とローカライズにnnを使用する方法を紹介しました。 0.75
Our training data comes from a training data collecting process under Assumption 4 wherein the local data samples ˜X k i are collected by agent i which could be within or beyond the neighborhood of the attacker. 訓練データは,攻撃者の近辺に存在しうるエージェントiにより,局所データサンプルであるxkiを収集する前提4に基づくトレーニングデータ収集プロセスから得られたものである。 0.76
Apparently, the optimal train way is to upload all agents’ data to a fusion center and train the model in a centralized manner. 最適なトレイン方法は、すべてのエージェントのデータを核融合センターにアップロードし、集中的な方法でモデルをトレーニングすることだ。 0.77
However in practice, collecting data from decentralized data sources to the center is hard due to storage and bandwidth limitations. しかし実際には、分散データソースから中央へのデータ収集は、ストレージと帯域幅の制限のため困難である。
訳抜け防止モード: しかし実際には 分散データソースからセンターへのデータ収集 ストレージと帯域幅の制限のために難しいのです。
0.80
On the other hand, as running a gossip algorithm is time-consuming, it is usually difficult and expensive to collect sufficient data at each agent. 一方、ゴシップアルゴリズムの実行には時間を要するため、各エージェントで十分なデータを集めるのは通常困難でコストがかかる。 0.75
For example, the attack could occur far from the monitoring agent while the training data may only contains samples from a neighbor attacker. 例えば、アタックは監視エージェントから遠く離れて発生し、トレーニングデータは隣のアタッカーのサンプルのみを含む可能性がある。 0.74
As the training samples may not well represent the general attack network, some individually trained NN may not fit in all insider attack events. トレーニングサンプルは一般的な攻撃ネットワークをうまく表現していないため、個別に訓練されたnnはすべてのインサイダー攻撃に適合しない場合がある。 0.64
To alleviate these issues, we propose a collaborative peer-to-peer protocol to facilitate training our NN models. これらの問題を緩和するため、NNモデルのトレーニングを容易にするために、協調的なピアツーピアプロトコルを提案する。 0.53
Before we go to the details, we recall three assumptions for the proposed collaborative learning process. 詳細を述べる前に,提案した協調学習プロセスについて,3つの仮定を思い出す。 0.75
First, we assume that all agents in the network have equal number of neighbors (this is sort of impractical but we can resolve it later). まず、ネットワーク内の全てのエージェントが同じ数の隣人を持っていると仮定する(これは実用的ではないが、後で解決できる)。 0.74
Also, different agents collect their own training data with the advantages of high scalability また、異なるエージェントは高いスケーラビリティの利点によって独自のトレーニングデータを収集します。 0.69
Algorithm 2 Gossip training for AI-based methods アルゴリズム2 AIに基づく手法のゴシップトレーニング 0.79
Input: Pij : probability of exchange, η : learning rate. 入力: pij: 交換確率、η: 学習率。 0.65
Initialize: W is initialized randomly, i ∈ V. repeat initialize: W is initialized randomly, i ∈ V. repeat 0.91
• MERGEMODEL(Wr, Wi) in (28) • Wi ← Wi − η ˆ∇Li(Wi), agent i updates parameters • Agent i sends Wi to agent j ∈ Ni with probability Pij • MERGEMODEL(Wr, Wi) in (28) • Wi > Wi − η > Li(Wi), agent i update parameters • Agent i send Wi to agent j ∈ Ni with probability Pij 0.81
until Maximum iteration reached function MERGEMODEL(Wr, Wi) 最大反復が MERGEMODEL(Wr, Wi) に到達するまで 0.82
Wi ← Wi(1 − µ) + µWr, µ ∈ [0, 1]. Wi は Wi(1 − μ) + μWr, μ ∈ [0, 1] である。 0.83
end function end + function 0.72
and privacy preservation. プライバシー保護も必要です 0.56
Moreover, we allow the trustworthy agents to have correctly labeled samples from the ND and NL tasks. さらに、信頼に値するエージェントがNDおよびNLタスクのサンプルを正しくラベル付けすることを許可する。 0.72
For instance, the samples labeled in the current training round can be used to the next training round. 例えば、現在のトレーニングラウンドにラベル付けされたサンプルは、次のトレーニングラウンドに使用することができる。 0.74
In the next, we will see how to share AI-based models between different agents to achieve robust performance in ND and NL tasks. 次に、異なるエージェント間でAIベースのモデルを共有して、NDおよびNLタスクで堅牢なパフォーマンスを実現する方法について説明する。 0.63
A. The Distributed Collaborative Training Process A。 分散協調学習プロセス 0.63
The goal of collaborative training is that participating agents acting as local learners to train good local models (i.e., NN models) through gossip exchanges. コラボレーティブトレーニングの目標は、地元の学習者として働くエージェントがゴシップ交換を通じて良いローカルモデル(NNモデル)を訓練することである。 0.77
That is, an agent i ∈ V aims to train a model that performs well with respect to the data points available on other agents. すなわち、エージェント i ∈ V は、他のエージェントで利用可能なデータポイントに対してよく機能するモデルを訓練することを目的としている。 0.80
For distributed collaborative training, the standard unconstrained empirical risk minimization problem used in machine learning problems (such as NN) can be described as follows [39]: 分散コラボレーティブトレーニングでは、機械学習問題(NNなど)で使用される標準的な制約のない経験的リスク最小化問題を次のように記述することができる。 0.74
min W L(W ) = min ミン・w L(W ) = min 0.64
1 n Li(W ) (25) 1n Li(W) (25) 0.81
(cid:88) i∈V (cid:88) I-V 0.61
where W is the parameter of the NN model. ここで W は NN モデルのパラメータです。 0.71
Li(·) is a local objective function of agent i, which is defined as the expected loss of the local data set. Li(·) はエージェント i の局所目的関数であり、これは局所データセットの期待損失として定義される。
訳抜け防止モード: Li ( · ) はエージェント i の局所目的関数である。 これは、ローカルデータセットの期待損失として定義される。
0.82
The local objective is to minimize the expected loss of its local sample 局所的な目的は、その局所的なサンプルの損失を最小限にすることである 0.57
Li(W ) = Eς∼Ii[(cid:96)(W , ς)] Li(W ) = Eς>Ii[(cid:96)(W , ς)] 0.97
(26) where ς is a pair variable, composed of an input and related label, following the unknown probability distribution Ii, which is specific for the sample set received by agent i. (26) ここで σ は入力と関連するラベルからなるペア変数であり、エージェント i が受信するサンプルセットに固有の未知確率分布 ii に従う。 0.77
(cid:96)(·) is a loss function used to quantify the prediction error on ς. (cid:96)(·) は ς 上の予測誤差の定量化に用いられる損失関数である。 0.82
Let Di = {ς1,··· , ςq} represents the set of training data on agent i ∈ V, which contains q samples. Di = {ς1,··· , ςq} は、qサンプルを含むエージェント i ∈ V 上のトレーニングデータの集合を表す。 0.82
Thus, we have D = D1 ∪···∪ Dn to optimize problem (25): したがって、D = D1, Dn で問題を最適化する(25)。 0.85
min W L(W ) = min ミン・w L(W ) = min 0.64
(cid:96)(W , ς) (cid:96)(w,σ) 0.89
(27) (cid:88) (27) (cid:88) 0.82
(cid:16) 1 (cid:88) (cid:16)1 (cid:88) 0.79
i∈V q ς∈Di I-V q 十六月Di 0.49
1 n (cid:17) 1n (cid:17) 0.77
(cid:96)(W , ς). (cid:96)(w, σ)。 0.84
This formulation enables where Li(W ) = 1 q us to state the optimization problem (25) in a distributed manner. この定式化により、Li(W ) = 1 q us が最適化問題 (25) を分散的に記述できる。 0.76
This distributed collaborative training problem could be addressed by gossip exchanges [41], [42]. この分散協調学習問題は, ゴシップ交換[41], [42]によって対処できる。 0.71
We will detail it as follows. ς∈Di 以下に詳述する。 十六月Di 0.29
(cid:80) (cid:80) 0.78
英語(論文から抽出)日本語訳スコア
Fig. 3. An example of tailoring neighbor agents. フィギュア。 3. 近隣のエージェントを 調整する例です 0.65
7 TEST SCENARIOS SETTINGS FOR MISMATCHED DATA 7 小型データのためのテストセナリオス設定 0.66
TABLE I Scenario テーブルI シナリオ 0.62
Mean Deviation S0 S1 S2 S3 S4 意味 逸脱 S0 S1 S2 S3 S4 0.62
0.5 0.5 0.5 0.7 0.3 0.5 0.5 0.5 0.7 0.3 0.44
1.0 0.6 1.4 1.0 1.0 1.0 0.6 1.4 1.0 1.0 0.44
Initial distribution β ∼ U [0.0, 1.0]d β ∼ U [0.2, 0.8]d β ∼ U [−0.2, 1.2]d β ∼ U [0.2, 1.2]d β ∼ U [−0.2, 0.8]d 初期分布 β ^ U [0.0, 1.0]d β ^ U [0.2, 0.8]d β ^ U [-0.2, 1.2]d β ^ U [0.2, 1.2]d β ^ U [-0.2, 0.8]d 0.74
B. The Gossip Stochastic Gradient Descent Strategy B。 Gossip Stochastic Gradient Descent Strategy 0.74
Gossip learning is a method to learn models from fully distributed data without central control [9]. ゴシップ学習(Gossip learning)は、中央制御なしで完全に分散したデータからモデルを学習する手法である。
訳抜け防止モード: ゴシップ学習とは 集中制御なしで完全に分散したデータからモデルを学習します [9]。
0.79
The skeleton of the gossip learning protocol is shown in Algorithm 2. ゴシップ学習プロトコルの骨格はアルゴリズム2で示されている。 0.72
Therein, during the training stage, each agent i has a NN with the same architecture and initializes a local model with the parameter Wi. これにより、トレーニング段階では、各エージェントiは同じアーキテクチャのNNを持ち、パラメータWiでローカルモデルを初期化する。 0.71
This is then sent to another agent j ∈ Ni in the network periodically with the probability Pij. これは、確率 Pij と周期的にネットワーク内の他のエージェント j ∈ Ni に送られる。 0.80
Upon receiving a model Wr, the agent i merges it with the local model, and updates it using the local data set Di. モデルWrを受け取ると、エージェントiがそれをローカルモデルとマージし、ローカルデータセットDiを使用して更新する。 0.74
We utilize the stochastic gradient descent (SGD) algorithm to estimate the local parameter Wi [43], as follows 確率勾配勾配(SGD)アルゴリズムを用いて局所パラメータWi[43]を次のように推定する。 0.68
Remark: Typically, the training data used to train the AIbased methods is collected by trustworthy agents under a scenario of specific prior information β. 注: 通常、AIベースのメソッドをトレーニングするために使用されるトレーニングデータは、特定の事前情報βのシナリオの下で信頼できるエージェントによって収集されます。 0.67
In practice, the prior information of the gossip-based DPS optimization protocol will be changed in some particular scenarios, that is, the test data is statistically mismatched with the training data. 実際には、GossipベースのDPS最適化プロトコルの事前情報は、特定のシナリオ、すなわち、テストデータがトレーニングデータと統計的に一致していない場合に変更される。 0.68
To further verify the robustness of the AI-based detection and localization models, we generate the test data by keeping the target value of attackers α and changing the mean and the deviation of β. aiベースの検出および局在モデルのロバスト性をさらに検証するために、攻撃者のαの目標値を保持し、βの平均および偏差を変化させてテストデータを生成する。 0.82
As depicted in Section V, we set β ∼ U[0, 1]d, then several test scenarios are defined in the TABLE I. セクション v で示されるように、β を u[0, 1]d とすると、いくつかのテストシナリオが表 i で定義される。 0.71
(28) V. NUMERICAL RESULTS AND ANALYSIS (28) V.数値結果と解析 0.81
Wi ← Wi(1 − µ) + µWr, Wi ← Wi − η ˆ∇Li(Wi), Wi > Wi(1 − μ) + μWr, Wi > Wi − η > Li(Wi) 0.70
µ ∈ [0, 1]. µ ∈ [0, 1]. 0.76
i ∈ V, (29) where η and ˆ∇Li(·) are the learning rate and the expected gradient of agent i, respectively. i ∈ V, (29) ここで η(·) はエージェント i の学習率と期待勾配である。
訳抜け防止モード: i ∈ V, (29)どこで η と ηli ( · ) はそれぞれエージェント i の学習率と期待勾配である。
0.79
µ ∈ [0, 1] is a weight used to merge the receive model Wr. μ ∈ [0, 1] は受信モデルwrをマージするのに使われる重みである。 0.74
Herein, MERGEMODEL(Wr, Wi) is a merging process as shown in (28) which is typically achieved by averaging the model with parameters, i.e., µ = 0.5. ここで、MERGEMODEL(Wr, Wi) は (28) に示すようなマージ過程であり、一般的にはモデルをパラメータ、すなわち μ = 0.5 で平均化する。 0.85
In this section, numerical results are presented to validate the effectiveness of the proposed AI-based methods in neighborhood tasks. 本稿では,近傍タスクにおけるAIに基づく手法の有効性を検証するために,数値的な結果を示す。 0.66
The DPS algorithm runs on a Manhattan network with n = 9 agents, as shown in Fig 4. DPSアルゴリズムは、図4に示すように、n = 9エージェントのマンハッタンネットワーク上で動作する。 0.87
In our experiment, an example of the least-square optimization problem is considered; i.e., in (1) we set 本実験では,最小二乗最適化問題の例を考察する。
訳抜け防止モード: 我々の実験では、最小二乗最適化問題の例を考える。 ; i.e., in ( 1 ) we set
0.79
f k(x) = f k i (x) = f k(x) = f k i (x) = 0.85
i )(cid:62)xk − φk i )(cid:62)xk − φk 0.88
i , k = 1, ..., K. 私は , k = 1, ..., k である。 0.69
n(cid:88) n(cid:88) n(cid:88) n(cid:88) 0.84
(cid:12)(cid:12)(θk (cid:12)(cid:12)(θk) 0.69
(cid:12)(cid:12)2 (cid:12)(cid:12)2 0.78
C. The Tailor-degree Network c.tailor-degree network 0.76
We have introduced the application of NN in detecting and localizing attacker, and assumed that each normal agent in the network has exactly M neighbors. 我々は、攻撃者の検出とローカライズにおけるnnの適用を導入し、ネットワーク内の各正規エージェントがちょうどm近傍を持つと仮定した。 0.63
Inevitably, the communication network is an irregular network, where some agents have a heterogeneous number of neighbor agents. 必然的に、通信ネットワークは不規則なネットワークであり、あるエージェントは隣接エージェントの数が異なる。 0.69
In order to adapt to scenarios with different Degree-|Ni| agents, into the scenario when we tailor our M-input NN to fit a normal agent has |Ni| (cid:54)= M neighbors. 異なるDegree-|Ni|エージェントのシナリオに適応するために、通常のエージェントに適合するようにM入力NNを調整した場合、|Ni| (cid:54)= M 隣人が存在する。 0.62
Two scenarios are considered in this subsection. 本項では2つのシナリオを考察する。 0.71
In the first scenario, we consider the case of |Ni| > M. The |Ni| neighbors is divided into (cid:100)|Ni|/M(cid:101) potentially overlapping groups. 最初のシナリオでは、|Ni| > M の場合を考える。 |Ni| 隣人は (cid:100)|Ni|/M(cid:101) と重複する可能性のある群に分けられる。 0.60
In ND and NL tasks, each group contains exactly M agents, which can be treated as a standard neighbor set of TDNN and SDNN methods. NDおよびNLタスクでは、各グループは正確にMエージェントを含み、TDNNおよびSDNNメソッドの標準隣接セットとして扱うことができる。 0.86
Thus, these two tasks can be implemented with the unified NN model, as seen in Fig 3. したがって、これら2つのタスクは、図3に示すように、unified nnモデルで実装することができる。 0.59
On the other hand, if we have |Ni| < M, the deficient value in the input vector is replaced by a reference value to fit a Degree-|Ni| agent. 一方、|Ni| < M であれば、入力ベクトルの欠陥値は基準値に置き換えられ、Degree-|Ni| エージェントに適合する。
訳抜け防止モード: 一方、もしも 私たちは |Ni| < M, 入力ベクトルの欠陥値は参照値に置き換えられ、Degree-|Ni|エージェントに適合する。
0.75
For the TDNN method, the input is reconstructed by a0(ˆa0) ∈ RM = [ξi1,··· , ξi|Ni|, ξii, . TDNN法では、入力は a0(>a0) ∈ RM = [>i1,··· , >i|Ni|, >ii, で再構成される。 0.70
. . , ξii](cid:62), wherein ξii is the temporal difference value of agent i. . . i はエージェント i の時間差値である(cid:62)。 0.73
For the SDNN method, the deficient value of input vector is replaced by Xii, and the input is reconstructed by a0(ˆa0) ∈ RM = [χi1;··· ; χi|Ni|; χii;··· ; χii](cid:62) when |Ni| < M. SDNN法では、入力ベクトルの欠陥値を Xii に置き換え、a0(>a0) ∈ RM = [.i1;··· ; .i|Ni|; .ii;·· ; .ii](cid:62) で |Ni| < M で再構成する。 0.79
i=1 i=1 Herein, f k is a utility function at agent i. i=1 i=1 ここで、f k はエージェント i のユーティリティ関数である。 0.66
As shown in i Algorithm 1, the DPS algorithm runs in an asynchronous manner such that an agent i randomly selects an agent j with probability [P ]ij = Pij = 1/|Ni|. i Algorithm 1 に示すように、DPSアルゴリズムはエージェント i が確率 [P ]ij = Pij = 1/|Ni| のエージェント j をランダムに選択するように非同期に実行される。 0.86
Thus the expected (cid:80)n transition matrix in iteration t can be written as E [A(t)] = I − 1 2n Σ + P +P (cid:62) 2n , where Σ is a diagonal matrix with [Σ]ii = j=1(Pij + Pji). したがって、反復 t における期待 (cid:80)n 遷移行列は E [A(t)] = I − 1 2n Σ + P + P (cid:62) 2n と書くことができ、Σ は [Σ]ii = j=1(Pij + Pji) の対角行列である。 0.83
In each instance, we set d = 2, T = 2000, the initialization xk(0) ∼ U[0, 1]d, αk ∼ U[−0.5, 0.5]d and j (t) ∼ U[−ˆλt, ˆλt], where λ is the second largest eigenvalue rk of E[A(t)]. それぞれの例で d = 2, T = 2000, 初期化 xk(0) > U[0, 1]d, αk > U[−0.5, 0.5]d と j(t) > U[−>λt, >λt] を定め、λ は E[A(t)] の2番目に大きな固有値 rk となる。 0.88
In particular, to serve our purpose we change the i ∼ U[0.5, 2.5]d, function f k (x(cid:63))k ∼ U[0, 1]d, and thus we have φk i )(cid:62)(x(cid:63)) k. 特に、目的を達成するために、i > U[0.5, 2.5]d, function f k (x(cid:63))k > U[0, 1]d を変更し、したがって φk i )(cid:62)(x(cid:63)) k となる。 0.77
i (x) by randomly generating θk i = (θk i (x) by randomly generating θk i = (θk) 0.95
For the AI-based methods, the feed forward neural networks (FFNN) with three hidden layers is applied to perform the ND and NL tasks with neurons in each hidden layer being 200, 100 and 50 respectively. AIベースの手法では、3つの隠蔽層を有するフィードフォワードニューラルネットワーク(FFNN)を適用し、各隠蔽層内のニューロンが200、100、50であるNDおよびNLタスクを実行する。 0.73
These NNs are implemented using a modified version of the deep learning toolbox in [44]. これらのNNは[44]でディープラーニングツールボックスの修正版を使用して実装される。 0.59
Rectified linear unit (ReLU) as the activation function is equipped in all hidden layers and the parameters of NN are jointly optimized through a back propagation method by minimizing the loss function defined on different tasks. 活性化関数としての整流線形ユニット(ReLU)は、すべての隠蔽層に備わっており、異なるタスクで定義された損失関数を最小化することにより、NNのパラメータをバック伝搬法により共同最適化する。 0.72
To provide neighbor data and ground truth labels for the AI-based methods, we run the DPS algorithm independently in each event (4), starting with a new initial state each time. AIベースの手法に隣接データと基底真理ラベルを提供するため、各イベント(4)毎に独立してDPSアルゴリズムを実行し、毎回新しい初期状態から始める。 0.75
英語(論文から抽出)日本語訳スコア
err 翻訳エラー 0.00
英語(論文から抽出)日本語訳スコア
9 Fig. 7. 9 フィギュア。 7. 0.71
Comparison between independent training and collaborative training based on matched data. 一致データに基づく独立トレーニングと協調トレーニングの比較 0.70
Models are trained on sufficient “next to” data then tested on “next to” data. モデルは十分な“next to”データでトレーニングされ、“next to”データでテストされる。 0.82
Fig. 8. Comparison between independent training and collaborative training for mismatched data. フィギュア。 8. ミスマッチデータに対する独立トレーニングと協調トレーニングの比較 0.66
The plots are SDNN with K = 1, d = 2. プロットは K = 1, d = 2 の SDNN である。 0.76
samples collected at the agent next to an attacker while “far from” data refers to samples collected at the agent far from an attacker. 攻撃者の隣のエージェントで収集されたサンプルと“far from”データは、攻撃者から遠く離れたエージェントで収集されたサンプルを指す。 0.75
Moreover, “next to” model refers as the independent model trained on “next to” data while “far from” model refers as the independent model trained on “far from” data. さらに、“next to”モデルは“next to”データでトレーニングされた独立したモデル、”far from”モデルは“far from”データでトレーニングされた独立したモデルを指す。 0.88
We then consider two extreme cases to verify the collaborative learning. 次に,協調学習を検証するための2つの極端な事例について考察する。 0.47
For Case 1, we assume that in the independent training process the monitoring agent only collects a very small amount of local “next to” data, which is not enough to complete a meaningful NN model. ケース1では、独立したトレーニングプロセスでは、監視エージェントはごく少数のローカルな“next to”データを収集するだけで、意味のあるNNモデルを完成させるには不十分であると仮定する。 0.72
While in the collaborative training process, the agent update its local model by merging the received neighboring models. 協調的なトレーニングプロセスでは、エージェントは受信した隣接モデルをマージしてローカルモデルを更新する。 0.77
We then test the two training methods on “next to” data for ND and NL tasks. 次に、NDタスクとNLタスクの“next to”データに対して、2つのトレーニング方法をテストする。 0.65
In Fig 7, the dashed and solid lines are the performance for the independent training and the collaborative training, respectively. 図7では、破断線と固形線は、それぞれ独立した訓練と協調訓練のパフォーマンスである。 0.70
It is clear that with insufficient samples, the agent in independent learning performs poorly on both ND and NL tasks, while the collaborative training enables the agent to learn models from its neighbors, which greatly improves detection and localization performances. サンプルが不十分な場合には,NDタスクとNLタスクの両方で独立学習エージェントが不十分であり,協調学習により,隣人からモデルを学ぶことができ,検出および局所化性能が大幅に向上することが明らかとなった。 0.78
It is expected that a similar result also holds for “far from” cases. 同様の結果が“遠く”のケースにも当てはまると期待されている。 0.78
For Case 2, we first consider the scenario that each agent has sufficient “next to” data (“far from” data) to train the ケース2では、まず各エージェントがトレーニングに十分な“Next to”データ(“far from”データ)を持っているシナリオを検討します。 0.81
Fig. 6. ROCs of SDNN and SD methods: (Left) ND task, (Right) NL task. フィギュア。 6. SDNN および SD メソッドのROC: (Left) ND タスク、 (Right) NL タスク。 0.66
0 and Hi respectively. 0 と Hi それぞれ。 0.72
The localization performance of NL task is shown in Fig 5 (Right), where we assume that the ND task can completely distinguish between events Hi 1 without errors (by an ‘Oracle’). nlタスクのローカライズ性能はfig 5 (right) に示されており、ndタスクがエラーのないイベント hi 1 と( 'oracle' によって)完全に区別できると仮定している。 0.66
In these plots, it is obvious that both the performance of TDNN and TD will improve significantly as K increases when d is fixed, and vice versa. これらのプロットにおいて、TDNNとTDの性能は、dが固定されたときにKが増加するにつれて大きく向上する。 0.68
For the first and second curves in ND and NL tasks, TD has the same performance at K = 2, d = 1 as at K = 1, d = 2, and the same is true for TDNN on the fifth and sixth curves, which is inherent to TD strategy (9). ND と NL のタスクにおける第1および第2の曲線について、TD は K = 2, d = 1 で K = 1, d = 2 で、TD の戦略に固有の第5および第6の曲線上の TDNN でも同様である(9)。 0.79
Thus, we may say that either increasing K or increasing d will bring the same improvement over performance. したがって、K の増加や d の増加は、性能よりも同じ改善をもたらすと言えるかもしれない。 0.73
From Fig 5, it can be seen that TDNN improves significantly over TD in terms of both detection and localization performance, performing good performance when K = 5, d = 2. 図5から、TDNNは検出性能とローカライゼーション性能の両方においてTDよりも大幅に向上し、K = 5, d = 2 の場合に優れた性能を発揮することが分かる。 0.74
The ROCs of SDNN are shown in Fig 6, while SD in [36] is selected as a benchmark. SDNNのROCは図6に示され、[36]のSDはベンチマークとして選択される。 0.65
It can be seen from the plots that both SDNN and SD already provide good detection and localization performance when K = 2, which is better than that of TDNN and TD methods. このプロットから、SDNN と SD は、K = 2 が TDNN や TDNN よりも優れている場合に、既に良い検出およびローカライズ性能を提供していることが分かる。 0.77
This result implies that transient states can indeed provide more information to identify the attacker, as spatial methods (SDNN and SD) leverage the entire dynamic information while the temporal methods (TDNN and TD) only utilize the first and last states. この結果は、時間的手法(tdnnとtd)が最初の状態と最後の状態のみを使用するのに対して、空間的手法(sdnnとsd)が全体の動的情報を活用するため、過渡的状態が攻撃者を特定するためのより多くの情報を提供できることを示唆している。 0.56
Also in this case, the attacker detection and localization performance of SDNN and SD will improve significantly as K increases when d is fixed. また、この場合、SDNNとSDのアタッカー検出およびローカライズ性能は、dが固定されるとKが増加するにつれて大幅に向上する。 0.68
When K is fixed, the performance of SDNN and SD slightly improved as d increases. K が固定されると d の増加に伴い SDNN と SD のパフォーマンスはわずかに向上する。 0.83
For the ND task in Fig 6 (Left), the detection performance of SDNN and SD are close to each other, they show excellent performance under the same feature processing condition, seen in (12) and (22). 図6(Left)のNDタスクでは、SDNNとSDの検知性能は近いが、(12)および(22)で見られるように、同じ特徴処理条件下では優れた性能を示す。 0.73
Nevertheless, SDNN has a drastic advantage over SD method in NL task and can completely distinguish the neighboring attacker at K = 2, seen in Fig 6 (Right). それでもSDNN は NL タスクにおける SD メソッドよりも大幅に有利であり、図 6 (Right) に見られる K = 2 の攻撃者を完全に区別することができる。 0.76
B. Performance of the Collaborative Learning B。 協調学習のパフォーマンス 0.70
In this subsection, we show how to utilize the collaborative learning protocol to train a robust model for accommodating more attack events. 本稿では、協調学習プロトコルを用いて、より強力な攻撃イベントを収容するための堅牢なモデルをトレーニングする方法を示す。 0.72
Specifically, we consider the performance comparison of independent training and collaborative training. 具体的には、独立トレーニングと協調トレーニングのパフォーマンス比較を検討する。 0.69
Herein, independent training means that each agent trains its model based on its local data, where “next to” data refers to ここで独立したトレーニングは、各エージェントがローカルデータに基づいてモデルをトレーニングすることを意味します。
訳抜け防止モード: ここで 独立した訓練とは 各エージェントは,“next to ”データが参照するローカルデータに基づいて,モデルをトレーニングする。
0.87
00.20.40.6Probabilit y of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerSD K=1, d=1SD K=1, d=2SD K=2, d=1SD K=2, d=2SDNN K=1, d=1SDNN K=1, d=2SDNN K=2, d=1SDNN K=2, d=200.050.10.90.95100. 20.40.6Probability of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerSD K=1, d=1SD K=1, d=2SD K=2, d=1SD K=2, d=2SDNN K=1, d=1SDNN K=1, d=2SDNN K=2, d=1SDNN K=2, d=200.050.10.9100.20.4 0.6Probability of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerTDNN K=5, d=2 Collaborative trainingTDNN K=5, d=2 Independent trainingSDNN K=2, d=2Collaborative trainingSDNN K=2, d=2Independent training00.20.40.6Pr obability of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of localization PldiLocalization, agent i next to attackerTDNN K=5, d=2Collaborative trainingTDNN K=5, d=2Independent trainingSDNN K=2, d=2Collaborative trainingSDNN K=2, d=2Independent training00.20.40.6Pr obability of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiND taskCollaborative trainingCollaborativ e training0.10.20.30.4 0.50.6Probability of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiND taskCollaborative training Collaborative training 00.20.40.6Probabilit y of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerSD K=1, d=1SD K=1, d=2SD K=2, d=1SD K=2, d=2SDNN K=1, d=1SDNN K=1, d=2SDNN K=2, d=1SDNN K=2, d=200.050.10.90.95100. 20.40.6Probability of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerSD K=1, d=1SD K=1, d=2SD K=2, d=1SD K=2, d=2SDNN K=1, d=1SDNN K=1, d=2SDNN K=2, d=1SDNN K=2, d=200.050.10.9100.20.4 0.6Probability of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerTDNN K=5, d=2 Collaborative trainingTDNN K=5, d=2 Independent trainingSDNN K=2, d=2Collaborative trainingSDNN K=2, d=2Independent training00.20.40.6Pr obability of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of localization PldiLocalization, agent i next to attackerTDNN K=5, d=2Collaborative trainingTDNN K=5, d=2Independent trainingSDNN K=2, d=2Collaborative trainingSDNN K=2, d=2Independent training00.20.40.6Pr obability of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiND taskCollaborative trainingCollaborativ e training0.10.20.30.4 0.50.6Probability of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiND taskCollaborative training Collaborative training 0.40
英語(論文から抽出)日本語訳スコア
10 Fig. 9. 10 フィギュア。 9. 0.71
ROCs of TDNN and TD with different deficient size: (Left) ND task, (Right) NL task. 異なる大きさのTDNNとTDのROC:(Left)NDタスク、(Right)NLタスク。 0.65
p = M − |Ni| means that the number of deficient inputs. p = M − |Ni| は不足入力の数を意味する。 0.87
Fig. 11. フィギュア。 11. 0.64
ROCs of TDNN and TD for the mismatch model: (Left) ND task, (Right) NL task. ミスマッチモデルに対するTDNNとTDのROC:(Left)NDタスク、(Right)NLタスク。 0.68
αk ∼ U [−0.5, 0.5]d. Each entry of xk(0) is distributed as legended for testing data. xk(0)の各エントリは、テストデータのための伝説として配布される。 0.49
as the target example, and we have M = 4 and |Ni| = {2, 3}. 対象の例として M = 4 と |Ni| = {2, 3} がある。 0.80
The attack scenario of m = 1, c = 1 is applied to verify our proposed method, and the performance in p = 0 is taken as the baseline. 提案手法を検証するためにm = 1, c = 1の攻撃シナリオを適用し, p = 0の性能をベースラインとする。 0.70
We choose agent 2 as the test agent whose neighbors are agents 1, 3, 5 and 8, i.e., p = 0. 隣人がエージェント1, 3, 5, 8、すなわち p = 0 である試験剤としてエージェント2を選択する。 0.77
When p = 1, we cut off the connection between agents 2 and 3, then the neighbors of the test agent are agents 1, 5, and 8. p = 1 の場合、エージェント 2 と 3 の間の接続を遮断すると、テストエージェントの隣人はエージェント 1, 5, 8 である。 0.72
Next when p = 2, we further cut off the connection between agents 2 and 5, leaving only agents 1 and 8 as neighbors of the test agent 2. 次に p = 2 のとき、エージェント 2 と 5 の間の接続をさらに遮断し、エージェント 1 と 8 だけをテストエージェント 2 の近傍として残す。 0.85
Note that the parameters for the AI-based methods are the same as those in previous subsection V-A, and that the testing data is generated from a modified Manhattan network with p = 1 and p = 2. AIに基づく手法のパラメータは、前節のV-Aと同じであり、テストデータは、p = 1 と p = 2 の修正マンハッタンネットワークから生成されることに注意されたい。 0.81
Fig. 9 shows the attacker detection and localization performance of TDNN and TD methods with K = 5, d = 2. フィギュア。 K = 5, d = 2 の TDNN 法と TD 法の攻撃検出および局所化性能を示す。 0.58
It can be seen that the performance of TDNN and TD in ND and NL tasks will not fluctuate significantly with the increase of p. However, TDNN has more stable detection and localization performance than TD. NDおよびNLタスクにおけるTDNNとTDの性能はpの増加とともに大きく変動しないが、TDNNはTDよりも安定した検出とローカライズ性能を有する。 0.71
In Fig 10, we shows the performance of SDNN and SD methods with K = 2, d = 2. 図10では、K = 2, d = 2 で SDNN および SD メソッドのパフォーマンスを示す。 0.74
As p increases, SD has good detection performance, but its localization performance slightly decreases. pが増加するにつれて、SDは検出性能が良いが、ローカライゼーション性能はわずかに低下する。 0.63
Obviously, the results in both ND and NL tasks show that in our setting p does not have a significant effect on the performance of SDNN. 明らかに、NDタスクとNLタスクの両方の結果は、我々の設定pにおいてSDNNの性能に大きな影響を与えていないことを示している。 0.68
SDNN still can provide stable performance for detecting and localizing attackers. SDNNは攻撃者を検出し、ローカライズするための安定したパフォーマンスを提供することができる。 0.46
These results suggest that the proposed AI-based models may fit well with irregular degree networks. これらの結果から,提案したAIモデルが不規則次数ネットワークに適合する可能性が示唆された。 0.60
D. Robustness test when data is mismatched with prior information D.ロバストネステスト : データが事前情報と一致しない場合 0.66
Furthermore, we test the robustness of AI-based methods when the prior information is inconsistent with the actual environment. さらに,事前情報が実環境と一致しない場合,aiに基づく手法の頑健性をテストする。 0.69
The prior information of test scenarios are present in subsection IV-C. We consider one attacker in the Manhattan network and train the parameters of AI-based methods in the scenario with αk ∼ U[−0.5, 0.5]d and β ∼ U[0.0, 1.0]d, and the test data is generated by other scenarios in TABLE I. 我々は、マンハッタンネットワークの1人の攻撃者を考慮し、αk ] u[−0.5, 0.5]dとβ ] u[0.0, 1.0]dのシナリオにおけるaiベースのメソッドのパラメータを訓練し、テストデータはテーブルiの他のシナリオによって生成される。 0.74
In Fig 11, we show the detection and localization performance of TDNN and TD methods in different test scenarios when K = 5, d = 2. 図11では、K = 5, d = 2 のとき、異なるテストシナリオにおけるTDNNおよびTDNN法の検出とローカライズ性能を示す。 0.76
Specifically, we generate the test data 具体的には テストデータを生成し 0.82
Fig. 10. フィギュア。 10. 0.64
ROCs of SDNN and SD with different deficient size: (Left) ND task, (Right) NL task. SDNN と SD のROC: (Left) ND タスク、 (Right) NL タスク。
訳抜け防止モード: 異なる大きさのSDNNとSDのROC : (左)NDタスク (右) NL タスク。
0.66
p = M − |Ni| means that the number of deficient inputs. p = M − |Ni| は不足入力の数を意味する。 0.87
NN model. We then test the independent/collabor ative training models on the “next to” data (“far from” data), which is matched the training data. NNモデル。 次に、トレーニングデータと一致する“next to”データ(“far from”データ)で、独立した/共同トレーニングモデルをテストします。 0.81
The red (blue) dashed and solid lines in Fig 8 (Left) represent their ROC results, which imply that the collaborative learning model will converge to the independent learning model. 図8(Left)の赤(青)の破断線と固い線はROCの結果を表しており、これは協調学習モデルが独立した学習モデルに収束することを意味する。 0.85
On the other hand, we further test the mismatch case of the training data and testing data. 一方で、トレーニングデータとテストデータのミスマッチケースもテストします。 0.56
That is, we use the “next to” data to test the “far from” model, and vice versa. つまり、“next to”データを使用して“far from”モデルをテストするのです。 0.64
Interestingly, Fig 8 (Right) shows that the collaborative learning model has a significant improvement over the independent model, as it learns both the characteristics of the “next to” model and “far from” model. 興味深いことに、Fig 8 (Right)は、協調学習モデルは、”次の”モデルと“遠い”モデルの両方の特徴を学ぶため、独立モデルよりも大幅に改善されていることを示している。 0.76
These results demonstrate the advantage of the collaborative learning on the robustness of the model. これらの結果は,モデルのロバスト性に対する協調学習の利点を示している。 0.77
Therefore, when there are enough samples, collaborative learning also has strong competitiveness compared with independent learning. したがって、十分なサンプルがある場合、協調学習は独立学習に比べて強い競争力を持つ。 0.80
C. Performance for Different Degree-|Ni| agents C. 異なるDegree-|Ni| 剤の性能 0.64
In this subsection, we discuss the scenario where the communication network is an irregular network. 本稿では,コミュニケーションネットワークが不規則なネットワークであるシナリオについて論じる。 0.80
We assume that the number of mismatched inputs not matching the unified model is p = M − |Ni|. 統一モデルと一致しない不一致入力の数は p = M − |Ni| であると仮定する。 0.79
According to the scheme described in subsection IV-C, we test the detection and localization performance of AI-based methods when p (cid:54)= 0. 第iv-c条に記載されたスキームによれば、p(cid:54) = 0 の場合、aiベースの手法の検出とローカライズ性能を試験する。 0.44
To set up this simulation, the Manhattan network topology is selected このシミュレーションを構築するために、マンハッタンネットワークトポロジーが選択される 0.79
00.20.40.6Probabilit y of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerTD p=0TD p=1TD p=2TDNN p=0TDNN p=1TDNN p=200.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerTD p=0TD p=1TD p=2TDNN p=0TDNN p=1TDNN p=200.20.40.6Probabili ty of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerSD p=0SD p=1SD p=2SDNN p=0SDNN p=1SDNN p=200.020.040.060.90.9 5100.51Probability of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerSD p=0SD p=1SD p=2SDNN p=0SDNN p=1SDNN p=200.20.40.6Probabili ty of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerTD ~ U[0.0, 1.0]TD ~ U[0.2, 0.8]TD ~ U[-0.2, 1.2]TD ~ U[0.2, 1.2]TD ~ U[-0.2, 0.8]TDNN ~ U[0.0, 1.0]TDNN ~ U[0.2, 0.8]TDNN ~ U[-0.2, 1.2]TDNN ~ U[0.2, 1.2]TDNN ~ U[-0.2, 0.8]00.20.40.6Probabilit y of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerTD ~ U[0.0, 1.0]TD ~ U[0.2, 0.8]TD ~ U[-0.2, 1.2]TD ~ U[0.2, 1.2]TD ~ U[-0.2, 0.8]TDNN ~ U[0.0, 1.0]TDNN ~ U[0.2, 0.8]TDNN ~ U[-0.2, 1.2]TDNN ~ U[0.2, 1.2]TDNN ~ U[-0.2, 0.8] 00.20.40.6Probabilit y of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerTD p=0TD p=1TD p=2TDNN p=0TDNN p=1TDNN p=200.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerTD p=0TD p=1TD p=2TDNN p=0TDNN p=1TDNN p=200.20.40.6Probabili ty of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerSD p=0SD p=1SD p=2SDNN p=0SDNN p=1SDNN p=200.020.040.060.90.9 5100.51Probability of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerSD p=0SD p=1SD p=2SDNN p=0SDNN p=1SDNN p=200.20.40.6Probabili ty of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerTD ~ U[0.0, 1.0]TD ~ U[0.2, 0.8]TD ~ U[-0.2, 1.2]TD ~ U[0.2, 1.2]TD ~ U[-0.2, 0.8]TDNN ~ U[0.0, 1.0]TDNN ~ U[0.2, 0.8]TDNN ~ U[-0.2, 1.2]TDNN ~ U[0.2, 1.2]TDNN ~ U[-0.2, 0.8]00.20.40.6Probabilit y of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerTD ~ U[0.0, 1.0]TD ~ U[0.2, 0.8]TD ~ U[-0.2, 1.2]TD ~ U[0.2, 1.2]TD ~ U[-0.2, 0.8]TDNN ~ U[0.0, 1.0]TDNN ~ U[0.2, 0.8]TDNN ~ U[-0.2, 1.2]TDNN ~ U[0.2, 1.2]TDNN ~ U[-0.2, 0.8] 0.53
英語(論文から抽出)日本語訳スコア
11 Fig. 12. 11 フィギュア。 12. 0.71
ROCs of SDNN and SD for the mismatch model: (Left) ND task, (Right) NL task. ミスマッチモデルに対するSDNNとSDのROC: (Left)NDタスク、 (Right)NLタスク。 0.70
αk ∼ U [−0.5, 0.5]d. Each entry of xk(0) is distributed as legended for testing data. xk(0)の各エントリは、テストデータのための伝説として配布される。 0.49
Fig. 14. フィギュア。 14. 0.64
ROCs for multiple attackers of TDNN and TD: (Left) ND task, (Right) NL task. TDNNとTDの複数の攻撃者に対するROC: (Left) NDタスク、 (Right) NLタスク。 0.83
m is the number of attackers in the Manhattan network, and c is the number of attackers in the testing agent’s neighborhood. mはマンハッタンネットワークの攻撃者数であり、cはテストエージェントの近所の攻撃者数である。 0.61
Fig. 13. フィギュア。 13. 0.64
ROCs of SDNN and SD for the mismatch model: (Left) ND task, (Right) NL task. ミスマッチモデルに対するSDNNとSDのROC: (Left)NDタスク、 (Right)NLタスク。 0.70
αk ∼ U [−0.5, 0.5]d. Each entry of xk(0) is distributed as legended for testing data. xk(0)の各エントリは、テストデータのための伝説として配布される。 0.49
Fig. 15. フィギュア。 15. 0.64
ROCs for multiple attackers of SDNN and SD: (Left) ND task, (Right) NL task. SDNNとSDの複数の攻撃者に対するROC: (Left) NDタスク、 (Right) NLタスク。 0.82
m is the number of attackers in the Manhattan network, and c is the number of attackers in the testing agent’s neighborhood. mはマンハッタンネットワークの攻撃者数であり、cはテストエージェントの近所の攻撃者数である。 0.61
for the second and third curves by changing the deviation of β to β ∼ U[0.2, 0.8]d and β ∼ U[−0.2, 1.2]d. The results indicate that the performances of TDNN and TD methods deteriorate when the deviation of β increases, and improve when the deviation of β decreases. 第2および第3の曲線では、βの偏差をβの u[0.2, 0.8]dおよびβの u[−0.2, 1.2]dに変化させることにより、βの偏差が増加すると、tdnnおよびtd法の性能が低下し、βの偏差が減少すると改善する。 0.76
While in the fourth and fifth curves, we change the mean of β to β ∼ U[0.2, 1.2]d and β ∼ U[−0.2, 0.8]d. As can be seen that the performances of TDNN and TD will improve when [E[α]− E[β]] increases and deteriorate when the gap decreases. 第4曲線と第5曲線では, [E[α]− E[β]] が減少すると, 平均値が β > U[0.2, 1.2]d と β > U[−0.2, 0.8]d に変化するが, [E[α]− E[β]] が大きくなると, TDNN と TD のパフォーマンスが向上する。 0.84
Meanwhile, TDNN performs better than TD in both ND and NL tasks. 一方、TDNNはNDタスクとNLタスクの両方でTDよりも優れている。 0.70
In addition, Fig. 12 and Fig 13 respectively show the detection and localization performance of SDNN and SD methods when K = 1, d = 2 and K = 2, d = 2. さらに、fig。 12 と Fig 13 はそれぞれ K = 1, d = 2 と K = 2, d = 2 の場合に SDNN と SD 法の検出および局所化性能を示す。 0.61
In these plots, the ROC curves of SDNN and SD follow the same trends as those in Fig 11. これらのプロットでは、SDNN と SD の ROC 曲線は、図 11 と同じ傾向に従っている。 0.85
It is worth mentioning that SDNN still shows good detection and localization performance despite the mismatching of the training data and testing data. トレーニングデータとテストデータのミスマッチにもかかわらず、SDNNは依然として優れた検出とローカライゼーションのパフォーマンスを示している点に注意が必要だ。 0.66
Specifically, in Fig 11, Fig 12 and Fig 13. 具体的には、Fig 11 と Fig 12 と Fig 13 です。 0.78
E. Detection and Localization for Multiple Attackers e. 複数の攻撃者の検出と位置決め 0.64
Then, we investigated the performance of TDNN and SDNN with the case of multiple attackers. 次に,TDNNとSDNNの性能を複数の攻撃者を用いて検討した。 0.79
Note that the parameters of AI-based methods are the same as those in subsection V-A. AIに基づく手法のパラメータは、V-Aのパラメータと同じである。 0.69
In Fig 14 and 15, we set agents {1,··· , m} as the attackers 図14と15では、エージェント {1,··· , m} を攻撃者に設定します。 0.84
when considering a scenario with m attackers in the Manhattan network. マンハッタンネットワークの m攻撃者との シナリオを考えるとき 0.67
The legend in these plots with ‘m and c’ indicates that there are m attackers in the Manhattan network, and c attackers are in the neighborhood of the monitoring agent. m と c のプロットの伝説は、マンハッタンのネットワークには m の攻撃者がいて、c の攻撃者が監視員の近所にいることを示している。 0.71
In this case, the same αk is shared by all cooperating attackers, but the noise is random and independent among each attacker. この場合、同じαkが全ての協調攻撃者によって共有されるが、ノイズは各攻撃者間でランダムで独立である。 0.75
In Fig 14, we show the ROC curves of TDNN and TD methods when K = 5, d = 2. 図14では、K = 5, d = 2 のとき、TDNNおよびTD法のROC曲線を示す。 0.73
Obviously, both the detection and localization performance of TDNN and TD methods fluctuate obviously in different m and c. We notice that the total number of attackers (m) has only a slight impact on the detection performance of TDNN, which can be seen from the sixth (m = 1, c = 1), seventh (m = 2, c = 1) and ninth curves (m = 5, c = 1). 明らかに,TDNNとTDNNの検出および局所化性能は,それぞれ異なるmとcで明らかに変動する。攻撃者の総数(m)が,第6(m = 1, c = 1),第7(m = 2, c = 1),第9(m = 5, c = 1))から得られるTDNNの検出性能にわずかしか影響しない。
訳抜け防止モード: 明らかにTDNN法とTDNN法の局所化性能はmとcで明らかに変動しており、攻撃者総数(m)がTDNNの検出性能にわずかに影響を及ぼすことに気付く。 これは第6(m = 1)から見ることができる。 c = 1 ), 7 (m = 2, c = 1 ) そして 9 番目の曲線 ( m = 5, c = 1 ) である。
0.78
It shows that the detection performance for TDNN depends on the number of attacking neighbors. その結果,tdnnの検出性能は隣接者数に依存することがわかった。 0.66
As for NL task, we observe that TDNN exhibits similar performance in different attack scenarios. NLタスクに関して、TDNNは異なる攻撃シナリオで同様の性能を示す。 0.73
Nevertheless, the proposed TDNN method outperforms TD and has good performance in the case of multiple attackers. それにもかかわらず、提案手法はTDよりも優れ、複数の攻撃者に対して優れた性能を発揮する。 0.49
For SDNN and SD methods, the detection and localization performance are shown in Fig 15 with K = 2, d = 2. sdnn法とsd法では、k = 2, d = 2 のfig 15 で検出とローカライズ性能を示す。 0.63
From the Fig 15 (Left), SDNN and SD still show good detection performance in the case of multiple attackers. Fig 15 (Left) では、SDNN と SD が複数の攻撃者に対して優れた検出性能を示している。 0.77
We notice that the detection performance of SDNN is a slightly better than SD when SDNNの検出性能はSDよりも若干優れていることに気付きました。 0.81
00.20.40.6Probabilit y of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerSD K=1, ~ U[0.0, 1.0]SD K=1, ~ U[0.2, 0.8]SD K=1, ~ U[-0.2, 1.2]SD K=1, ~ U[0.2, 1.2]SD K=1, ~ U[-0.2, 0.8]SDNN K=1, ~ U[0.0, 1.0]SDNN K=1, ~ U[0.2, 0.8]SDNN K=1, ~ U[-0.2, 1.2]SDNN K=1, ~ U[0.2, 1.2]SDNN K=1, ~ U[-0.2, 0.8]00.20.40.6Probabilit y of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerSD K=1, ~ U[0.0, 1.0]SD K=1, ~ U[0.2, 0.8]SD K=1, ~ U[-0.2, 1.2]SD K=1, ~ U[0.2, 1.2]SD K=1, ~ U[-0.2, 0.8]SDNN K=1, ~ U[0.0, 1.0]SDNN K=1, ~ U[0.2, 0.8]SDNN K=1, ~ U[-0.2, 1.2]SDNN K=1, ~ U[0.2, 1.2]SDNN K=1, ~ U[-0.2, 0.8]00.20.40.6Probabilit y of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerSD K=2, ~ U[0.0, 1.0]SD K=2, ~ U[0.2, 0.8]SD K=2, ~ U[-0.2, 1.2]SD K=2, ~ U[0.2, 1.2]SD K=2, ~ U[-0.2, 0.8]SDNN K=2, ~ U[0.0, 1.0]SDNN K=2, ~ U[0.2, 0.8]SDNN K=2, ~ U[-0.2, 1.2]SDNN K=2, ~ U[0.2, 1.2]SDNN K=2, ~ U[-0.2, 0.8]00.020.040.060.90.95 100.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerSD K=2, ~ U[0.0, 1.0]SD K=2, ~ U[0.2, 0.8]SD K=2, ~ U[-0.2, 1.2]SD K=2, ~ U[0.2, 1.2]SD K=2, ~ U[-0.2, 0.8]SDNN K=2, ~ U[0.0, 1.0]SDNN K=2, ~ U[0.2, 0.8]SDNN K=2, ~ U[-0.2, 1.2]SDNN K=2, ~ U[0.2, 1.2]SDNN K=2, ~ U[-0.2, 0.8]00.020.040.90.95100. 20.40.6Probability of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerTD m=1, c=1TD m=2, c=1TD m=2, c=2TD m=5, c=1TD m=5, c=2TD m=5, c=3TDNN m=1, c=1TDNN m=2, c=1TDNN m=2, c=2TDNN m=5, c=1TDNN m=5, c=2TDNN m=5, c=300.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerTD m=1, c=1TD m=2, c=1TD m=2, c=2TD m=5, c=1TD m=5, c=2TD m=5, c=3TDNN m=1, c=1TDNN m=2, c=1TDNN m=2, c=2TDNN m=5, c=1TDNN m=5, c=2TDNN m=5, c=300.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerSD m=1,c=1SD m=2,c=1SD m=2,c=2SD m=5,c=1SD m=5,c=2SD m=5,c=3SDNN m=1,c=1SDNN m=2,c=1SDNN m=2,c=2SDNN m=5,c=1SDNN m=5,c=2SDNN m=5,c=3 00.20.40.6Probabilit y of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerSD K=1, ~ U[0.0, 1.0]SD K=1, ~ U[0.2, 0.8]SD K=1, ~ U[-0.2, 1.2]SD K=1, ~ U[0.2, 1.2]SD K=1, ~ U[-0.2, 0.8]SDNN K=1, ~ U[0.0, 1.0]SDNN K=1, ~ U[0.2, 0.8]SDNN K=1, ~ U[-0.2, 1.2]SDNN K=1, ~ U[0.2, 1.2]SDNN K=1, ~ U[-0.2, 0.8]00.20.40.6Probabilit y of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerSD K=1, ~ U[0.0, 1.0]SD K=1, ~ U[0.2, 0.8]SD K=1, ~ U[-0.2, 1.2]SD K=1, ~ U[0.2, 1.2]SD K=1, ~ U[-0.2, 0.8]SDNN K=1, ~ U[0.0, 1.0]SDNN K=1, ~ U[0.2, 0.8]SDNN K=1, ~ U[-0.2, 1.2]SDNN K=1, ~ U[0.2, 1.2]SDNN K=1, ~ U[-0.2, 0.8]00.20.40.6Probabilit y of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerSD K=2, ~ U[0.0, 1.0]SD K=2, ~ U[0.2, 0.8]SD K=2, ~ U[-0.2, 1.2]SD K=2, ~ U[0.2, 1.2]SD K=2, ~ U[-0.2, 0.8]SDNN K=2, ~ U[0.0, 1.0]SDNN K=2, ~ U[0.2, 0.8]SDNN K=2, ~ U[-0.2, 1.2]SDNN K=2, ~ U[0.2, 1.2]SDNN K=2, ~ U[-0.2, 0.8]00.020.040.060.90.95 100.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerSD K=2, ~ U[0.0, 1.0]SD K=2, ~ U[0.2, 0.8]SD K=2, ~ U[-0.2, 1.2]SD K=2, ~ U[0.2, 1.2]SD K=2, ~ U[-0.2, 0.8]SDNN K=2, ~ U[0.0, 1.0]SDNN K=2, ~ U[0.2, 0.8]SDNN K=2, ~ U[-0.2, 1.2]SDNN K=2, ~ U[0.2, 1.2]SDNN K=2, ~ U[-0.2, 0.8]00.020.040.90.95100. 20.40.6Probability of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerTD m=1, c=1TD m=2, c=1TD m=2, c=2TD m=5, c=1TD m=5, c=2TD m=5, c=3TDNN m=1, c=1TDNN m=2, c=1TDNN m=2, c=2TDNN m=5, c=1TDNN m=5, c=2TDNN m=5, c=300.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerTD m=1, c=1TD m=2, c=1TD m=2, c=2TD m=5, c=1TD m=5, c=2TD m=5, c=3TDNN m=1, c=1TDNN m=2, c=1TDNN m=2, c=2TDNN m=5, c=1TDNN m=5, c=2TDNN m=5, c=300.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerSD m=1,c=1SD m=2,c=1SD m=2,c=2SD m=5,c=1SD m=5,c=2SD m=5,c=3SDNN m=1,c=1SDNN m=2,c=1SDNN m=2,c=2SDNN m=5,c=1SDNN m=5,c=2SDNN m=5,c=3 0.58
英語(論文から抽出)日本語訳スコア
12 Fig. 16. 12 フィギュア。 16. 0.71
ROCs of TDNN for the small world network: (Left) ND task, (Right) NL task. 小世界ネットワークのためのTDNNのROC:(Left)NDタスク、(Right)NLタスク。 0.73
Solid lines show the average detection and localization performance in the small world network, and the parameters of TDNN are trained by the Manhattan network. 固体線はスモールワールドネットワークの平均検出と局所化性能を示し、tdnnのパラメータはマンハッタンネットワークによって訓練される。
訳抜け防止モード: ソリッドラインは、小世界ネットワークにおける平均検出およびローカライズ性能を示す。 TDNNのパラメータはマンハッタンネットワークによって訓練される。
0.83
Fig. 17. フィギュア。 17. 0.64
ROCs of SDNN for the small world network: (Left) ND task, (Right) NL task. 小世界ネットワークのためのSDNNのROC:(Left)NDタスク、(Right)NLタスク。 0.72
Solid lines show the average detection and localization performance in the small world network, and the parameters of SDNN are trained by the Manhattan network. 固形線は、小世界のネットワークにおける平均的な検出とローカライズ性能を示し、SDNNのパラメータはマンハッタンネットワークによって訓練される。 0.85
m = 5, c = 3. m = 5, c = 3 である。 0.94
While in the NL task, SDNN has excellent localization performance and outperforms SD in all attack scenarios. NLタスクでは、SDNNはローカライズ性能に優れ、すべての攻撃シナリオでSDよりも優れています。 0.63
F. Performance Test In a Small World Network f. 小規模ネットワークにおける性能試験 0.80
In addition, we also test また、テストも行います。 0.60
the detection and localization performance of AI-based methods in a small world network. 小世界ネットワークにおけるaiに基づく手法の検出と局所化性能 0.78
We consider a small world network with 20 agents. 20人のエージェントによる小さな世界ネットワークを考える。 0.78
The average degree is set to be 8 and the rewiring probability is set to be 0.2. 平均次数は8に設定され、再帰確率は0.2に設定される。 0.74
We assume that among all the nodes, agents 3, 10 and 17 are the attackers. すべてのノードの中で,エージェント3,10,17が攻撃者であると仮定する。 0.74
The AI-based models are trained by the training data from Manhattan network as those in V-A, while the test data are collected from the small world network. AIベースのモデルは、マンハッタンネットワークのトレーニングデータからV-Aのトレーニングデータによってトレーニングされ、テストデータは小さな世界ネットワークから収集される。 0.79
We only consider to monitor at the agents next to the attacker. 我々は攻撃者の隣のエージェントを監視することのみを考える。 0.81
Note that herein the degree-mismatch problem is solved by the proposed method in Section IV-C. We therefore show the performance of TDNN and SDNN in Fig 16 and Fig. ここでは,第4-C節で提案した手法を用いて等級ミスマッチ問題を解き,図16および図16におけるTDNNとSDNNの性能を示す。 0.77
17 respectively. In these plots, the solid lines show the average detection and localization performance in the small world network. 17であった。 これらのプロットにおいて, 固体線は, 小世界ネットワークにおける平均検出および局所化性能を示す。 0.68
We notice that AI-based methods also exhibit good detection and localization performance in a small world network. 我々は、AIに基づく手法は、小さな世界のネットワークにおいて、優れた検出とローカライゼーション性能を示すことに気付く。 0.58
These results further illustrate the potential of the proposed defense strategies. これらの結果は、提案された防衛戦略の可能性をさらに示している。 0.49
VI. CONCLUSION This work is dedicated to the detection of insider attacks in the DPS algorithm through AI technology. VI。 結論 この研究は、AI技術によるDPSアルゴリズムにおけるインサイダー攻撃の検出に重点を置いている。 0.69
We have proposed two AI-based defense strategies (TDNN and SDNN) for securing the gossip-based DPS algorithm. 我々は,ゴシップベースのDPSアルゴリズムを確保するための2つのAIベースの防衛戦略(TDNNとSDNN)を提案している。 0.61
Unlike the traditional score-based methods, this work utilizes NN to learn the complex mapping relationships in this classification problem, thus reducing the design difficulty of the attacker detector. 従来のスコアベース手法とは異なり、この研究はnnを用いてこの分類問題における複雑なマッピング関係を学習し、攻撃者検知器の設計上の困難さを低減している。 0.66
To circumvent the mismatch of the training data and the actual network attack, we propose a federated learning approach to learn a local model close to the global model using training data from all agents. トレーニングデータと実際のネットワーク攻撃のミスマッチを回避するため,すべてのエージェントからのトレーニングデータを用いて,グローバルモデルに近い局所モデルを学習するためのフェデレート学習手法を提案する。 0.90
Experiment results demonstrate that the proposed AI-based methods have good detection and localization performance in different attack scenarios. 実験の結果,提案手法は異なる攻撃シナリオにおいて優れた検出と位置決め性能を有することが示された。 0.65
They also have good adaptability to different degree of agent, and have strong robustness to the inconsistency of prior information with the actual environment. また、異なるエージェントのレベルへの適応性も良好であり、実際の環境との事前情報の不整合に対して強い強固さを持つ。 0.62
Therefore, it is convinced that the proposed AI-based defense strategies have a high potential for practical applications in the DPS algorithm. したがって、提案したAIベースの防衛戦略は、DPSアルゴリズムの実践的応用に高い可能性を秘めている。 0.76
As a future work, it would be interesting to try the AI-based methods on more complicated attack models and other decentralized algorithms. 今後の研究として、より複雑な攻撃モデルやその他の分散アルゴリズムに関するAIベースの手法を試すことは興味深い。
訳抜け防止モード: 将来の作品として、それは興味深いだろう より複雑な攻撃モデルやその他の分散アルゴリズムに基づいたAIを試す。
0.76
REFERENCES [1] A. Nedic and A. Ozdaglar, “Distributed subgradient methods for multiagent optimization,” IEEE Transactions on Automatic Control, vol. 参考 [1] A. Nedic and A. Ozdaglar, “Distributed subgradient method for multiagent optimization, IEEE Transactions on Automatic Control, vol。 0.66
54, no. 1, pp. 54、ノー。 1、p。 0.69
48–61, 2009. 48–61, 2009. 0.84
[2] A. Nedic, A. Ozdaglar, and P. A. Parrilo, “Constrained consensus and optimization in multi-agent networks,” IEEE Transactions on Automatic Control, vol. [2] Nedic, A. Ozdaglar, P. A. Parrilo, “Constrained consensus and Optimization in multi-agent network”, IEEE Transactions on Automatic Control, vol。 0.85
55, no. 4, pp. 55だ 4, pp。 0.60
922–938, 2010. 922–938, 2010. 0.84
[3] G. Hattab and D. Cabric, “Distributed wideband sensing-based architecture for unlicensed massive iot communications,” IEEE Transactions on Cognitive Communications and Networking, vol. IEEE Transactions on Cognitive Communications and Networking, vol.[3] G. Hattab, D. Cabric, “Distributed wideband sensor-based architecture for unlicensed massive iot communication”. IEEE Transactions on Cognitive Communications and Networking. 0.81
5, no. 3, pp. 5位はノー。 3、p。 0.68
819–834, 2019. 819–834, 2019. 0.84
[4] B. V. Philip, T. Alpcan, J. Jin, and M. Palaniswami, “Distributed realtime iot for autonomous vehicles,” IEEE Transactions on Industrial Informatics, vol. B.V. Philip, T. Alpcan, J. Jin, M. Palaniswami, “Distributed realtime iot for autonomous vehicle”, IEEE Transactions on Industrial Informatics, vol. 0.78
15, no. 2, pp. 1131–1140, 2019. 15だ 2、p。 1131–1140, 2019. 0.62
[5] S. X. Wu, H.-T. Wai, L. Li, and A. Scaglione, “A review of distributed algorithms for principal component analysis,” Proceedings of the IEEE, vol. 5] S. X. Wu, H.-T. Wai, L. Li, A. Scaglione, “A review of distributed algorithm for principal component analysis”, Proceedings of the IEEE, vol。 0.89
106, no. 8, pp. 106 だめだ 8, pp。 0.66
1321–1340, 2018. 1321–1340, 2018. 0.84
[6] C. Zhang and Y. Wang, “Enabling privacy-preservation in decentralized optimization,” IEEE Transactions on Control of Network Systems, vol. IEEE Transactions on Control of Network Systems, vol.[6] C. Zhang, Y. Wang, “Enabling privacy-preservation in decentralized optimization”. IEEE Transactions on Control of Network Systems. 0.76
6, no. 2, pp. 6、ノー。 2、p。 0.67
679–689, 2018. 679–689, 2018. 0.84
[7] D. Gesbert, S. G. Kiani, A. Gjendemsjo, and G. E. Oien, “Adaptation, coordination, and distributed resource allocation in interference-limited wireless networks,” Proceedings of the IEEE, vol. D. Gesbert, S. G. Kiani, A. Gjendemsjo, G. E. Oien, “Adaptation, coordinate and distributed resource allocation in interference-limited Wireless network”, Proceedings of the IEEE, vol. 0.85
95, no. 12, pp. 2393– 2409, 2007. 95だ 12、p。 2393– 2409, 2007. 0.69
[8] G. B. Giannakis, V. Kekatos, N. Gatsis, S.-J. G. B. Giannakis, V. Kekatos, N. Gatsis, S.-J. 0.90
Kim, H. Zhu, and B. F. Wollenberg, “Monitoring and optimization for power grids: A signal processing perspective,” IEEE Signal Processing Magazine, vol. Kim, H. Zhu, B. F. Wollenberg, “Monitoring and optimization for power grids: A signal processing perspective”, IEEE Signal Processing Magazine, vol。 0.86
30, no. 5, pp. 30だ 5, pp。 0.59
107–128, 2013. 107–128, 2013. 0.84
[9] I. Heged˝us, G. Danner, and M. Jelasity, “Gossip learning as a decentralized alternative to federated learning,” in IFIP International Conference on Distributed Applications and Interoperable Systems. IFIP International Conference on Distributed Applications and Interoperable Systems”で,“Gossip Learning as a decentralized alternative to Federated Learning”と題された[9] I. Heged sus, G. Danner, M. Jelasity。 0.91
Springer, 2019, pp. スプリンガー、2019年、p。 0.49
74–90. [10] J. Tsitsiklis, “Problems in decentralized decision making and computation,” Ph.D. dissertation, Dept. 74–90. [10] j. tsitsiklis, "分散意思決定と計算の問題点" ph.d. dissertation, dept. 0.78
of Electrical Engineering and Computer Science, M.I.T., Boston, MA, 1984. 電気工学と計算機科学の m.i.t., boston, ma, 1984 0.82
[11] S. S. Ram, A. Nedi´c, and V. V. Veeravalli, “Distributed stochastic subgradient projection algorithms for convex optimization,” Journal of optimization theory and applications, vol. 11] s.s. ram, a. nedi ́c, v. v. veeravalli, “distributed stochastic subgradient projection algorithms for convex optimization”、journal of optimization theory and applications, vol. veeravalli。 0.87
147, no. 3, pp. 147年だ 3、p。 0.53
516–545, 2010. 516–545, 2010. 0.84
[12] S. Sundaram and B. Gharesifard, “Consensus-based distributed optimization with malicious nodes,” in 2015 53rd Annual Allerton Conference on Communication, Control, and Computing (Allerton). 2015年の第53回allerton conference on communication, control, and computing (allerton)で、s. sundaram氏とb. gharesifard氏が講演した。
訳抜け防止モード: [12 ] S. Sundaram, B. Gharesifard, “Consensus - based distributed optimization with malicious node”。 2015年の第53回アレルトン通信・制御・コンピューティング年次会議(アレルトン)に参加。
0.80
IEEE, 2015, pp. IEEE、2015年。 0.52
244–249. [13] S. X. Wu, H.-T. Wai, A. Scaglione, A. Nedi´c, and A. Leshem, “Data injection attack on decentralized optimization,” in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). 244–249. S. X. Wu, H.-T. Wai, A. Scaglione, A. Nedi ́c, A. Leshem, “Data Injection attack on decentralized optimization” in 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)。 0.79
IEEE, 2018, pp. IEEE, 2018, pp。 0.82
3644–3648. 3644–3648. 0.71
00.20.40.6Probabilit y of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerManhattan K=2, d=2Small-world K=2, d=2Manhattan K=5, d=2Small-world K=5, d=200.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerManhattan K=2, d=2Small-world K=2, d=2Manhattan K=5, d=2Small-world K=5, d=200.20.40.6Probabili ty of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerManhattan K=1, d=2Small-world K=1, d=2Manhattan K=2, d=2Small-world K=2, d=200.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerManhattan K=1, d=2Small-world K=1, d=2Manhattan K=2, d=2Small-world K=2, d=2 00.20.40.6Probabilit y of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerManhattan K=2, d=2Small-world K=2, d=2Manhattan K=5, d=2Small-world K=5, d=200.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerManhattan K=2, d=2Small-world K=2, d=2Manhattan K=5, d=2Small-world K=5, d=200.20.40.6Probabili ty of false alarm Pnfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PndiDetection, agent i next to attackerManhattan K=1, d=2Small-world K=1, d=2Manhattan K=2, d=2Small-world K=2, d=200.20.40.6Probabili ty of false alarm Plfi00.10.20.30.40.5 0.60.70.80.91Probabi lity of detection PldiLocalization, agent i next to attackerManhattan K=1, d=2Small-world K=1, d=2Manhattan K=2, d=2Small-world K=2, d=2 0.40
英語(論文から抽出)日本語訳スコア
13 [37] L. Giaretta and ˇS. 13 [37] L. Giaretta と .S. 0.89
Girdzijauskas, “Gossip learning: off the beaten path,” IEEE, Girdzijauskas, “Gossip Learning: off the beaten path”, IEEE, 0.78
in 2019 IEEE International Conference on Big Data (Big Data). 2019年、ieee international conference on big data (big data) を開催。 0.80
2019, pp. 1117–1124. 2019年、p。 1117–1124. 0.75
[38] S. Savazzi, M. Nicoli, and V. Rampa, “Federated learning with cooperating devices: A consensus approach for massive iot networks,” IEEE Internet of Things Journal, vol. ieee internet of things journal, vol. “federated learning with cooperating devices: a consensus approach for massive iot networks”[38] s. savazzi, m. nicoli, v. rampaは、こう述べている。 0.77
7, no. 5, pp. 7位はノー。 5, pp。 0.75
4641–4654, 2020. 4641–4654, 2020. 0.84
[39] Z. Jiang, A. Balu, C. Hegde, and S. Sarkar, “Collaborative deep learning in fixed topology networks,” in Advances in Neural Information Processing Systems (NIPS), 2017, pp. [39] z. jiang, a. balu, c. hegde, s. sarkar, “collaborative deep learning in fixed topology networks” in advances in neural information processing systems (nips), 2017年4月1日閲覧。 0.80
5904–5914. 5904–5914. 0.71
[40] R. Orm´andi, I. Heged˝us, and M. Jelasity, “Gossip learning with linear models on fully distributed data,” Concurrency and Computation: Practice and Experience, vol. 40] r. orm ́andi, i. heged sus, m. jelasity, “gossip learning with linear models on full distributed data”, 並行性と計算: 実践と経験, vol。 0.84
25, no. 4, pp. 25だ 4, pp。 0.59
556–571, 2013. 556–571, 2013. 0.84
[41] M. Blot, D. Picard, N. Thome, and M. Cord, “Distributed optimization for deep learning with gossip exchange,” Neurocomputing, vol. neurocomputing, vol. “[41] m. blot, d. picard, n. thome, m. cord, “ゴシップ交換によるディープラーニングの分散最適化”。 0.73
330, pp. 287–296, 2019. 330, pp。 287–296, 2019. 0.83
[42] J. Daily, A. Vishnu, C. Siegel, T. Warfel, and V. Amatya, “Gossipgrad: Scalable deep learning using gossip communication based asynchronous gradient descent,” arXiv preprint arXiv:1803.05880, 2018. [42]J。 Daily, A. Vishnu, C. Siegel, T. Warfel, V. Amatya, “Gossipgrad: Scalable Deep Learning using gossip communication based asynchronous gradient descent”, arXiv preprint arXiv:1803.05880, 2018”。 0.84
[43] M. Blot, D. Picard, and M. Cord, “Gosgd: Distributed optimization for deep learning with gossip exchange,” arXiv preprint arXiv:1804.01852, 2018. M. Blot, D. Picard, and M. Cord, “Gosgd: Distributed Optimization for Deep Learning with gossip Exchange”, arXiv preprint arXiv:1804.01852, 2018”。 0.88
[44] R. B. Palm, “Prediction as a candidate for learning deep hierarchical [44] r. b. palm, “深層階層学習の候補としての予測” 0.79
models of data,” Technical University of Denmark, vol. とデンマーク工科大学は述べている。 0.34
5, 2012. [45] T. Fawcett, “An introduction to roc analysis,” Pattern recognition letters, 5, 2012. [45]T.Fawcett, “An Introduction to roc analysis”, Pattern Recognition Letter, 0.80
vol. 27, no. 8, pp. Vol. 27号室 8, pp。 0.60
861–874, 2006. 861–874, 2006. 0.84
[14] G. Li, X. Wu, S. Zhang, H.-T. Wai, and A. Scaglione, “Detecting and localizing adversarial nodes using neural networks,” in 2018 IEEE 19th International Workshop on Signal Processing Advances in Wireless Communications (SPAWC) (IEEE SPAWC 2018), Kalamata, Greece, Jun. G. Li, X. Wu, S. Zhang, H.-T. Wai, A. Scaglione, “Detecting and localizing adversarial node using neural networks” in 2018 IEEE 19th International Workshop on Signal Processing Advances in Wireless Communications (SPAWC) (IEEE SPAWC 2018), Kalamata, Greece, Jun。 0.83
2018. [15] Q. Yan, M. Li, T. Jiang, W. Lou, and Y. T. Hou, “Vulnerability and protection for distributed consensus-based spectrum sensing in cognitive radio networks,” in INFOCOM, 2012 Proceedings IEEE. 2018. Q. Yan, M. Li, T. Jiang, W. Lou, Y. T. Hou, “Vulnerability and Protection for Distributed consensus-based spectrum sensor in Cognitive Radio network” in INFOCOM, 2012 Proceedings IEEE. 2012年4月1日閲覧。 0.84
IEEE, 2012, pp. IEEE、2012年。 0.57
900–908. [16] C. Zhao, J. 900–908. [16] C. Zhao, J。 0.78
He, and J. Chen, “Resilient consensus with mobile detectors against malicious attacks,” IEEE Transactions on Signal and Information Processing over Networks, vol. 彼とj. chenは、“悪意のある攻撃に対するモバイル検出器とのレジリエントなコンセンサス”だ。
訳抜け防止モード: 彼とJ. Chenは、“悪意のある攻撃に対するモバイル検出器のレジリエントなコンセンサス”だ。 IEEE Transactions on Signal and Information Processing over Networks, vol。
0.67
4, no. 1, pp. 4位はノー。 1、p。 0.67
60–69, 2017. 60–69, 2017. 0.84
[17] S. Sundaram and B. Gharesifard, “Distributed optimization under adversarial nodes,” IEEE Transactions on Automatic Control, vol. IEEE Transactions on Automatic Control, vol.[17] S. Sundaram, B. Gharesifard, “Distributed optimization under adversarial node, IEEE Transactions on Automatic Control, 0.83
64, no. 3, pp. 64, No. 3、p。 0.74
1063–1076, 2018. 1063–1076, 2018. 0.84
[18] R. Gentz, H.-T. Wai, A. Scaglione, and A. Leshem, “Detection of data- [18]R. Gentz, H.-T. Wai, A. Scaglione, A. Leshem, “データ検出” 0.85
injection attacks in decentralized learning,” Asilomar Conf, 2015. asilomar conf, 2015”: “分散学習におけるインジェクション攻撃。 0.73
[19] R. Gentz, S. X. Wu, H. T. Wai, A. Scaglione, and A. Leshem, “Data injection attacks in randomized gossiping,” IEEE Transactions on Signal and Information Processing Over Networks, vol. [19]R. Gentz, S. X. Wu, H. T. Wai, A. Scaglione, A. Leshem, “Data Injection attack in randomized gossiping, IEEE Transactions on Signal and Information Processing Over Networks, vol. 0.93
2, no. 4, pp. 2位はノー。 4, pp。 0.75
523–538, 2016. 523–538, 2016. 0.84
[20] M. Mobilia, “Does a single zealot affect an infinite group of voters ?” 20] m. mobilia, 「一つのゼアロットが無限の有権者集団に影響を与えているか?」 0.57
Physical Review Letters, July 2003. フィジカル・レター、2003年7月。 0.65
[21] B. Kailkhura, S. Brahma, and P. K. Varshney, “Data falsification attacks on consensus-based detection systems,” IEEE Transactions on Signal and Information Processing over Networks, vol. 21] b. kailkhura, s. brahma, p. k. varshney, “data falsification attacks on consensus-based detection systems”, ieee transactions on signal and information processing over networks, vol.)。 0.84
3, no. 1, pp. 3位はノー。 1、p。 0.67
145–158, 2017. 145–158, 2017. 0.84
[22] ——, “Consensus based detection in the presence of data falsification attacks,” IEEE Transactions on Signal Processing, vol. IEEE Transactions on Signal Processing, vol. “Consensus based detection in the presence of data falsification attack”[22] – “Consensus based detection in the presence of data falsification attack”. IEEE Transactions on Signal Processing. 0.68
PP, no. 99, 2015. PP、ノー。 99, 2015. 0.81
[23] O. Shalom, A. Leshem, A. Scaglione, and A. Nedi´c, “Detection of data injection attacks on decentralized statistical estimation,” in 2018 IEEE International Conference on the Science of Electrical Engineering in Israel (ICSEE). [23] o. shalom, a. leshem, a. scaglione, a. nedi ́c, “detection of data injection attacks on decentralized statistical estimation” 2018 ieee international conference on the science of electrical engineering in israel (icsee) で発表された。 0.84
IEEE, 2018, pp. IEEE, 2018, pp。 0.82
1–5. [24] N. Ravi and A. Scaglione, “Detection and isolation of adversaries in decentralized optimization for non-strongly convex objectives,” IFACPapersOnLine, vol. 1–5. IFACPapersOnLine, vol. [24] N. Ravi, A. Scaglione, “非強い凸目標に対する分散最適化における敵の検出と隔離”。 0.77
52, no. 20, pp. 52、ノー。 20、p。 0.72
381–386, 2019. 381–386, 2019. 0.84
[25] S. Patel, V. Khatana, G. Saraswat, and M. V. Salapaka, “Distributed detection of malicious attacks on consensus algorithms with applications in power networks,” in Preprint. 25] s. patel氏、v. khatana氏、g. saraswat氏、m. v. salapaka氏は、プレプリントで次のように述べている。
訳抜け防止モード: [25 ]S. Patel, V. Khatana, G. Saraswat, そしてM.V. Salapakaは、“パワーネットワークのアプリケーションとコンセンサスアルゴリズムによる悪意のある攻撃を分散検出する”。 プレプリント。
0.69
Golden, CO: National Renewable Energy Laboratory. 国立再生可能エネルギー研究所(National Renewable Energy Laboratory)の略。 0.47
NREL/CP-5D00-76848, 2020. NREL/CP-5D00-76848, 2020。 0.42
recognition,” in CVPR. CVPRでは”認識”。 0.77
[26] K. He, X. Zhang, S. Ren, and J. [26]K.He,X.Zhang,S. Ren,J. 0.81
Sun, “Deep residual learning for image IEEE Computer Society, 2016, pp. sun, “deep residual learning for image ieee computer society, 2016 pp. (英語) 0.72
770–778. [27] J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, “Bert: Pre-training of deep bidirectional transformers for language understanding,” arXiv preprint arXiv:1810.04805, 2018. 770–778. J. Devlin, M.-W. Chang, K. Lee, K. Toutanova, “Bert: 言語理解のためのディープ双方向トランスフォーマーの事前トレーニング” arXiv preprint arXiv:1810.04805, 2018。 0.77
[28] H. Wang, J. Ruan, G. Wang, B. Zhou, Y. Liu, X. Fu, and J. Peng, “Deep learning-based interval state estimation of ac smart grids against sparse cyber attacks,” IEEE Transactions on Industrial Informatics, vol. H. Wang, J. Ruan, G. Wang, B. Zhou, Y. Liu, X. Fu, and J. Peng, “深層学習に基づく、サイバー攻撃に対するcスマートグリッドのインターバル状態の推定”, IEEE Transactions on Industrial Informatics, vol. 0.87
14, no. 11, pp. 4766–4778, 2018. 14だ 11、p。 4766–4778, 2018. 0.62
[29] Y. Yu, T. Wang, and S. C. Liew, “Deep-reinforcement learning multiple access for heterogeneous wireless networks,” IEEE Journal on Selected Areas in Communications, vol. IEEE Journal on Selected Areas in Communications, vol.[29] Y. Yu, T. Wang, S. C. Liew, “Deep-reinforcement learning multiple access for heterogeneous Wireless network”. IEEE Journal on Selected Areas in Communications. 0.82
37, no. 6, pp. 37 だめだ 6, pp。 0.66
1277–1290, 2019. 1277–1290, 2019. 0.84
[30] W. Wu, R. Li, G. Xie, J. 30] w. wu, r. li, g. xie, j. 0.79
An, Y. Bai, J. Zhou, and K. Li, “A survey of intrusion detection for in-vehicle networks,” IEEE Transactions on Intelligent Transportation Systems, vol. An, Y. Bai, J. Zhou, K. Li, “A survey of in-vehicle network”, IEEE Transactions on Intelligent Transportation Systems, vol. 0.77
21, no. 3, pp. 919–933, 2019. 21だ 3、p。 919–933, 2019. 0.62
[31] A. Doboli, “Discovery of malicious nodes in wireless sensor networks using neural predictors,” Wseas Transactions on Computers Research, vol. [31] a. doboli, “discovery of malicious node in wireless sensor networks using neural predictor”, wseas transactions on computers research, vol.](英語) 0.85
2, 2007. [32] G. Rusak, A. Al-Dujaili, and U.-M. O’Reilly, “Ast-based deep learning for detecting malicious powershell,” in Proceedings of the 2018 ACM SIGSAC Conference on Computer and Communications Security, 2018, pp. 2, 2007. G. Rusak, A. Al-Dujaili, U.M. O’Reilly, “Ast-based Deep Learning for Detection malicious powershell” in Proceedings of the 2018 ACM SIGSAC Conference on Computer and Communications Security, 2018, pp. 0.87
2276–2278. 2276–2278. 0.71
[33] O. Rahman, M. A. G. Quraishi, and C.-H. [33] O. Rahman, M. A. G. Quraishi, C.-H. 0.85
Lung, “Ddos attacks detection and mitigation in sdn using machine learning,” in 2019 IEEE World Congress on Services (SERVICES), vol. lung, “ddos attack detection and mitigation in sdn using machine learning” 2019 ieee world congress on services (services) vol.3で発表された。 0.78
2642. IEEE, 2019, pp. 2642. IEEE, 2019, pp。 0.84
184– 189. [34] G. Li, S. X. Wu, S. Zhang, H.-T. Wai, and A. Scaglione, “Detecting and localizing adversarial nodes usig neural networks,” in 2018 IEEE 19th International Workshop on Signal Processing Advances in Wireless Communications (SPAWC). 184– 189. [34] g. li, s. x. wu, s. zhang, h.-t. wai, a. scaglione, “ detection and localizing adversarial nodes usig neural networks” 2018 ieee 19th international workshop on signal processing advances in wireless communications (spawc) で発表された。 0.88
IEEE, 2018, pp. IEEE, 2018, pp。 0.82
1–5. [35] G. Li, S. X. Wu, S. Zhang, and Q. Li, “Neural networks-aided insider attack detection for the average consensus algorithm,” IEEE Access, vol. 1–5. G. Li, S. X. Wu, S. Zhang, Q. Li, “Neural network-aided insider attack detection for the average consensus algorithm”, IEEE Access, vol.[35] G. Li, S. X. Wu, S. Zhang, Q. Li。 0.67
8, pp. 51 871–51 883, 2020. 8, pp。 51 871–51 883, 2020. 0.86
[36] ——, “Detect insider attacks using cnn in decentralized optimization,” in ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). は、icassp 2020-2020 ieee international conference on acoustics, speech and signal processing (icassp)で発表された。
訳抜け防止モード: 分散型最適化において、cnnを使ってインサイダー攻撃を検出する”。 in icassp 2020 - 2020 ieee international conference on acoustics, speech そして信号処理(icssp)。
0.64
IEEE, 2020, pp. IEEE, 2020, pp。 0.82
8758–8762. 8758–8762. 0.71
                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。