論文の概要: A Systematic Evaluation of Node Embedding Robustness
- arxiv url: http://arxiv.org/abs/2209.08064v2
- Date: Mon, 19 Sep 2022 10:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 12:56:48.660993
- Title: A Systematic Evaluation of Node Embedding Robustness
- Title(参考訳): ノード埋め込みロバスト性の体系的評価
- Authors: Alexandru Mara, Jefrey Lijffijt, Stephan G\"unnemann, Tijl De Bie
- Abstract要約: 本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
- 参考スコア(独自算出の注目度): 77.29026280120277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Node embedding methods map network nodes to low dimensional vectors that can
be subsequently used in a variety of downstream prediction tasks. The
popularity of these methods has significantly increased in recent years, yet,
their robustness to perturbations of the input data is still poorly understood.
In this paper, we assess the empirical robustness of node embedding models to
random and adversarial poisoning attacks. Our systematic evaluation covers
representative embedding methods based on Skip-Gram, matrix factorization, and
deep neural networks. We compare edge addition, deletion and rewiring
strategies computed using network properties as well as node labels. We also
investigate the effect of label homophily and heterophily on robustness. We
report qualitative results via embedding visualization and quantitative results
in terms of downstream node classification and network reconstruction
performances. We found that node classification suffers from higher performance
degradation as opposed to network reconstruction, and that degree-based and
label-based attacks are on average the most damaging.
- Abstract(参考訳): ノード埋め込み手法はネットワークノードを低次元ベクトルにマッピングし、その後様々な下流予測タスクで使用できる。
近年,これらの手法の普及が著しく進んでいるが,入力データの摂動に対する頑健さはいまだによく分かっていない。
本稿では,ランダムおよび逆向きの中毒攻撃に対するノード埋め込みモデルの経験的ロバスト性を評価する。
本システム評価は,スキップグラム,行列因子分解,ディープニューラルネットワークに基づく代表埋め込み手法を対象とする。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替え戦略を比較した。
また,ラベルホモフィアおよびヘテロフィアがロバスト性に及ぼす影響についても検討した。
本稿では,下流ノード分類とネットワーク再構築性能の観点から,埋め込み可視化と定量化による定性的な結果を報告する。
ノードの分類はネットワーク再構築とは対照的に高い性能劣化に悩まされており、学位ベースの攻撃やラベルベースの攻撃が最も被害を受けやすい。
関連論文リスト
- Robust Subgraph Learning by Monitoring Early Training Representations [5.524804393257921]
グラフニューラルネットワーク(GNN)は、グラフ学習やノード分類タスクにおける卓越したパフォーマンスに対して、大きな注目を集めている。
敵攻撃、特に感受性のあるノードによる攻撃に対する脆弱性は、意思決定において課題となる。
本稿では,SHERD(Subgraph Learning Hale through Early Training Representation Distances)を導入し,グラフ入力の性能と対角的堅牢性に対処する。
論文 参考訳(メタデータ) (2024-03-14T22:25:37Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - SSSNET: Semi-Supervised Signed Network Clustering [4.895808607591299]
SSSNETと呼ばれる半教師付きネットワーククラスタリングのためのGNNフレームワークにおいて、トレーニングノードに対する確率的バランスの取れた正規化カット損失を新たに導入する。
主な斬新なアプローチは、署名されたネットワーク埋め込みにおける社会的バランス理論の役割に関する新しい見解である。
論文 参考訳(メタデータ) (2021-10-13T10:36:37Z) - An Orthogonal Classifier for Improving the Adversarial Robustness of
Neural Networks [21.13588742648554]
近年の研究では、分類層に特定の変更を加えることで、ニューラルネットワークの堅牢性を向上させることが示されている。
我々は、成分が同じ大きさの高密度直交重み行列を明示的に構築し、新しいロバストな分類器を生み出す。
我々の方法は、多くの最先端の防衛アプローチに対して効率的で競争力がある。
論文 参考訳(メタデータ) (2021-05-19T13:12:14Z) - Unveiling Anomalous Edges and Nominal Connectivity of Attributed
Networks [53.56901624204265]
本研究では、相補的な強さを持つ2つの異なる定式化を用いて、属性グラフの異常なエッジを明らかにする。
まず、グラフデータマトリックスを低ランクとスパースコンポーネントに分解することで、パフォーマンスを著しく向上させる。
第2は、乱れのないグラフを頑健に復元することにより、第1のスコープを広げ、異常識別性能を高める。
論文 参考訳(メタデータ) (2021-04-17T20:00:40Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Improve Adversarial Robustness via Weight Penalization on Classification
Layer [20.84248493946059]
ディープニューラルネットワークは敵の攻撃に弱い。
近年の研究では、よく設計された分類部品がより堅牢性をもたらすことが示されている。
我々は,新しい軽量化防御法を開発した。
論文 参考訳(メタデータ) (2020-10-08T08:57:57Z) - Understanding and Diagnosing Vulnerability under Adversarial Attacks [62.661498155101654]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,潜在変数の分類に使用される特徴を説明するために,新しい解釈可能性手法であるInterpretGANを提案する。
また、各層がもたらす脆弱性を定量化する最初の診断方法も設計する。
論文 参考訳(メタデータ) (2020-07-17T01:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。