論文の概要: Cascading Failures in Smart Grids under Random, Targeted and Adaptive
Attacks
- arxiv url: http://arxiv.org/abs/2206.12735v1
- Date: Sat, 25 Jun 2022 21:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 17:19:46.643868
- Title: Cascading Failures in Smart Grids under Random, Targeted and Adaptive
Attacks
- Title(参考訳): ランダム・ターゲット・アダプティブ・アタックによるスマートグリッドのカスケード障害
- Authors: Sushmita Ruj and Arindam Pal
- Abstract要約: スマートグリッドにおけるカスケード障害について検討し、攻撃者がノードの次数、間性、クラスタリング係数に比例した確率で選択的に妥協する。
ネットワークはランダムアタックに比べてターゲットアタックに対して高速に崩壊することを示す。
敵は、同じ数のノードを一度に競合するのに比べて、この適応的アプローチに有利である。
- 参考スコア(独自算出の注目度): 4.968545158985657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study cascading failures in smart grids, where an attacker selectively
compromises the nodes with probabilities proportional to their degrees,
betweenness, or clustering coefficient. This implies that nodes with high
degrees, betweenness, or clustering coefficients are attacked with higher
probability. We mathematically and experimentally analyze the sizes of the
giant components of the networks under different types of targeted attacks, and
compare the results with the corresponding sizes under random attacks. We show
that networks disintegrate faster for targeted attacks compared to random
attacks. A targeted attack on a small fraction of high degree nodes
disintegrates one or both of the networks, whereas both the networks contain
giant components for random attack on the same fraction of nodes. An important
observation is that an attacker has an advantage if it compromises nodes based
on their betweenness, rather than based on degree or clustering coefficient.
We next study adaptive attacks, where an attacker compromises nodes in
rounds. Here, some nodes are compromised in each round based on their degree,
betweenness or clustering coefficients, instead of compromising all nodes
together. In this case, the degree, betweenness, or clustering coefficient is
calculated before the start of each round, instead of at the beginning. We show
experimentally that an adversary has an advantage in this adaptive approach,
compared to compromising the same number of nodes all at once.
- Abstract(参考訳): スマートグリッドにおけるカスケード障害について検討し、攻撃者がノードの次数、間性、クラスタリング係数に比例した確率で選択的に妥協する。
これは、高い次数、中間性、またはクラスタリング係数を持つノードが高い確率で攻撃されることを意味する。
対象とする攻撃の種類によってネットワークの巨大コンポーネントのサイズを数学的に実験的に解析し,ランダム攻撃における結果と対応するサイズを比較した。
ネットワークはランダム攻撃に比べて標的攻撃に対してより高速に崩壊することを示す。
少数の高次ノードに対する標的攻撃はネットワークの一方または両方を分解する一方、両方のネットワークは同じノードに対してランダムに攻撃するための巨大なコンポーネントを含んでいる。
重要な観察は、攻撃者が次数やクラスタリング係数ではなく、相互性に基づいてノードを妥協した場合に有利であるということだ。
次にアダプティブアタックについて検討する。アタッカーがラウンドのノードを侵害する。
ここでは、すべてのノードをまとめるのではなく、その度合い、間隙係数、クラスタリング係数に基づいて、各ラウンドでいくつかのノードが妥協される。
この場合、初期ではなく、各ラウンドの開始前に、度合い、間性、またはクラスタリング係数が計算される。
我々は,同じノード数を一度に妥協するよりも,この適応的アプローチにおいて敵が有利であることを実験的に示す。
関連論文リスト
- Minimum Topology Attacks for Graph Neural Networks [70.17791814425148]
グラフニューラルネットワーク(GNN)は、敵対的トポロジ攻撃に対する堅牢性において大きな注目を集めている。
本稿では,各ノードに対する攻撃を成功させるのに十分な最小摂動を適応的に見つけることを目的とした,最小予算トポロジ攻撃という新しいタイプのトポロジ攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-05T07:29:12Z) - Secure Deep Learning-based Distributed Intelligence on Pocket-sized
Drones [75.80952211739185]
パームサイズのナノドロンはエッジノードの魅力的なクラスであるが、その限られた計算資源は大規模なディープラーニングモデルの実行を妨げている。
エッジフォッグ計算のパラダイムを採用することで、計算の一部をフォグにオフロードすることができるが、フォグノードや通信リンクが信頼できない場合、セキュリティ上の懸念が生じる。
ナノドローン上でランダムなサブネットワークを冗長に実行することにより,霧の計算を検証する分散エッジフォッグ実行方式を提案する。
論文 参考訳(メタデータ) (2023-07-04T08:29:41Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - Collective Robustness Certificates: Exploiting Interdependence in Graph
Neural Networks [71.78900818931847]
ノード分類、画像分割、名前付き一致認識といったタスクでは、複数の予測を同時に出力する分類器があります。
既存の対向ロバスト性証明は、それぞれの予測を独立に考慮し、従ってそのようなタスクに対して過度に悲観的である。
本稿では,摂動下で安定に保たれることが保証される予測数を計算した最初の集合ロバスト性証明を提案する。
論文 参考訳(メタデータ) (2023-02-06T14:46:51Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - SSSNET: Semi-Supervised Signed Network Clustering [4.895808607591299]
SSSNETと呼ばれる半教師付きネットワーククラスタリングのためのGNNフレームワークにおいて、トレーニングノードに対する確率的バランスの取れた正規化カット損失を新たに導入する。
主な斬新なアプローチは、署名されたネットワーク埋め込みにおける社会的バランス理論の役割に関する新しい見解である。
論文 参考訳(メタデータ) (2021-10-13T10:36:37Z) - Query-based Adversarial Attacks on Graph with Fake Nodes [32.67989796394633]
そこで本研究では,元のグラフに偽ノードの集合を導入することで,新たな敵攻撃を提案する。
具体的には、各被害者ノードに対して、最も敵対的な特徴を取得するよう、被害者モデルに問い合わせる。
私たちの攻撃は実用的で目立たない方法で行われます。
論文 参考訳(メタデータ) (2021-09-27T14:19:17Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Towards More Practical Adversarial Attacks on Graph Neural Networks [14.78539966828287]
グラフニューラルネットワーク(GNN)に対するブラックボックス攻撃を,新規で現実的な制約の下で検討する。
我々は,GNNモデルの構造的帰納バイアスが,この種の攻撃に有効であることを示す。
論文 参考訳(メタデータ) (2020-06-09T05:27:39Z) - Indirect Adversarial Attacks via Poisoning Neighbors for Graph
Convolutional Networks [0.76146285961466]
グラフの畳み込みを無視すると、ノードの分類結果は隣人を中毒させることで影響を受ける。
我々は、1ホップの隣人だけでなく、目標から遠く離れた場所でも有効である強い敵の摂動を生成する。
提案手法は,ターゲットから2ホップ以内に99%の攻撃成功率を示す。
論文 参考訳(メタデータ) (2020-02-19T05:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。