論文の概要: A Systematic Evaluation of Node Embedding Robustness
- arxiv url: http://arxiv.org/abs/2209.08064v2
- Date: Mon, 19 Sep 2022 10:05:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 12:56:48.660993
- Title: A Systematic Evaluation of Node Embedding Robustness
- Title(参考訳): ノード埋め込みロバスト性の体系的評価
- Authors: Alexandru Mara, Jefrey Lijffijt, Stephan G\"unnemann, Tijl De Bie
- Abstract要約: 本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
- 参考スコア(独自算出の注目度): 77.29026280120277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Node embedding methods map network nodes to low dimensional vectors that can
be subsequently used in a variety of downstream prediction tasks. The
popularity of these methods has significantly increased in recent years, yet,
their robustness to perturbations of the input data is still poorly understood.
In this paper, we assess the empirical robustness of node embedding models to
random and adversarial poisoning attacks. Our systematic evaluation covers
representative embedding methods based on Skip-Gram, matrix factorization, and
deep neural networks. We compare edge addition, deletion and rewiring
strategies computed using network properties as well as node labels. We also
investigate the effect of label homophily and heterophily on robustness. We
report qualitative results via embedding visualization and quantitative results
in terms of downstream node classification and network reconstruction
performances. We found that node classification suffers from higher performance
degradation as opposed to network reconstruction, and that degree-based and
label-based attacks are on average the most damaging.
- Abstract(参考訳): ノード埋め込み手法はネットワークノードを低次元ベクトルにマッピングし、その後様々な下流予測タスクで使用できる。
近年,これらの手法の普及が著しく進んでいるが,入力データの摂動に対する頑健さはいまだによく分かっていない。
本稿では,ランダムおよび逆向きの中毒攻撃に対するノード埋め込みモデルの経験的ロバスト性を評価する。
本システム評価は,スキップグラム,行列因子分解,ディープニューラルネットワークに基づく代表埋め込み手法を対象とする。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替え戦略を比較した。
また,ラベルホモフィアおよびヘテロフィアがロバスト性に及ぼす影響についても検討した。
本稿では,下流ノード分類とネットワーク再構築性能の観点から,埋め込み可視化と定量化による定性的な結果を報告する。
ノードの分類はネットワーク再構築とは対照的に高い性能劣化に悩まされており、学位ベースの攻撃やラベルベースの攻撃が最も被害を受けやすい。
関連論文リスト
- Latent Graph Inference with Limited Supervision [58.54674649232757]
潜在グラフ推論(LGI)は、データ特徴から基礎となるグラフ構造とノード表現を共同で学習することを目的としている。
既存のLGI手法は、意味的な監督なしに巨大なエッジウェイトが学習され、トレーニング損失に寄与しない、監督飢餓の問題に悩まされることが一般的である。
本稿では,この問題の原因はグラフスカラー化操作であり,重要なノードとラベル付きノード間の接続を著しく破壊する。
論文 参考訳(メタデータ) (2023-10-06T15:22:40Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Robustness against Adversarial Attacks in Neural Networks using
Incremental Dissipativity [3.8673567847548114]
逆例はニューラルネットワークの分類性能を低下させるのが容易である。
本研究は,ニューラルネットワークに対する漸進的拡散性に基づくロバスト性証明を提案する。
論文 参考訳(メタデータ) (2021-11-25T04:42:57Z) - SSSNET: Semi-Supervised Signed Network Clustering [4.895808607591299]
SSSNETと呼ばれる半教師付きネットワーククラスタリングのためのGNNフレームワークにおいて、トレーニングノードに対する確率的バランスの取れた正規化カット損失を新たに導入する。
主な斬新なアプローチは、署名されたネットワーク埋め込みにおける社会的バランス理論の役割に関する新しい見解である。
論文 参考訳(メタデータ) (2021-10-13T10:36:37Z) - An Orthogonal Classifier for Improving the Adversarial Robustness of
Neural Networks [21.13588742648554]
近年の研究では、分類層に特定の変更を加えることで、ニューラルネットワークの堅牢性を向上させることが示されている。
我々は、成分が同じ大きさの高密度直交重み行列を明示的に構築し、新しいロバストな分類器を生み出す。
我々の方法は、多くの最先端の防衛アプローチに対して効率的で競争力がある。
論文 参考訳(メタデータ) (2021-05-19T13:12:14Z) - Unveiling Anomalous Edges and Nominal Connectivity of Attributed
Networks [53.56901624204265]
本研究では、相補的な強さを持つ2つの異なる定式化を用いて、属性グラフの異常なエッジを明らかにする。
まず、グラフデータマトリックスを低ランクとスパースコンポーネントに分解することで、パフォーマンスを著しく向上させる。
第2は、乱れのないグラフを頑健に復元することにより、第1のスコープを広げ、異常識別性能を高める。
論文 参考訳(メタデータ) (2021-04-17T20:00:40Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Improve Adversarial Robustness via Weight Penalization on Classification
Layer [20.84248493946059]
ディープニューラルネットワークは敵の攻撃に弱い。
近年の研究では、よく設計された分類部品がより堅牢性をもたらすことが示されている。
我々は,新しい軽量化防御法を開発した。
論文 参考訳(メタデータ) (2020-10-08T08:57:57Z) - Understanding and Diagnosing Vulnerability under Adversarial Attacks [62.661498155101654]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,潜在変数の分類に使用される特徴を説明するために,新しい解釈可能性手法であるInterpretGANを提案する。
また、各層がもたらす脆弱性を定量化する最初の診断方法も設計する。
論文 参考訳(メタデータ) (2020-07-17T01:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。