論文の概要: Collective Robustness Certificates: Exploiting Interdependence in Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2302.02829v1
- Date: Mon, 6 Feb 2023 14:46:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 16:29:09.043286
- Title: Collective Robustness Certificates: Exploiting Interdependence in Graph
Neural Networks
- Title(参考訳): 集合ロバスト性証明:グラフニューラルネットワークにおける相互依存性の活用
- Authors: Jan Schuchardt, Aleksandar Bojchevski, Johannes Gasteiger, Stephan
G\"unnemann
- Abstract要約: ノード分類、画像分割、名前付き一致認識といったタスクでは、複数の予測を同時に出力する分類器があります。
既存の対向ロバスト性証明は、それぞれの予測を独立に考慮し、従ってそのようなタスクに対して過度に悲観的である。
本稿では,摂動下で安定に保たれることが保証される予測数を計算した最初の集合ロバスト性証明を提案する。
- 参考スコア(独自算出の注目度): 71.78900818931847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In tasks like node classification, image segmentation, and named-entity
recognition we have a classifier that simultaneously outputs multiple
predictions (a vector of labels) based on a single input, i.e. a single graph,
image, or document respectively. Existing adversarial robustness certificates
consider each prediction independently and are thus overly pessimistic for such
tasks. They implicitly assume that an adversary can use different perturbed
inputs to attack different predictions, ignoring the fact that we have a single
shared input. We propose the first collective robustness certificate which
computes the number of predictions that are simultaneously guaranteed to remain
stable under perturbation, i.e. cannot be attacked. We focus on Graph Neural
Networks and leverage their locality property - perturbations only affect the
predictions in a close neighborhood - to fuse multiple single-node certificates
into a drastically stronger collective certificate. For example, on the
Citeseer dataset our collective certificate for node classification increases
the average number of certifiable feature perturbations from $7$ to $351$.
- Abstract(参考訳): ノード分類、画像分割、名前付きエンティティ認識といったタスクでは、単一の入力、すなわち単一のグラフ、イメージ、ドキュメントに基づいて、複数の予測(ラベルのベクトル)を同時に出力する分類器があります。
既存の敵対的ロバスト性証明はそれぞれの予測を独立に考慮し、そのようなタスクに対して過度に悲観的である。
彼らは暗黙的に、敵が異なる摂動入力を使用して異なる予測を攻撃できると仮定し、我々が1つの共有入力を持っているという事実を無視している。
そこで本研究では,摂動下での安定維持が保証される予測回数を計算する最初の集団的ロバスト性証明書を提案する。
グラフニューラルネットワークに注目し、その局所性(摂動は近辺の予測にのみ影響する)を活用して、複数の単一ノード証明書を劇的に強力な集合証明書に融合する。
例えば、Citeseerデータセットでは、ノード分類のための集合証明書によって、認証可能な機能摂動の平均数が7ドルから351ドルに増加する。
関連論文リスト
- Refined Edge Usage of Graph Neural Networks for Edge Prediction [51.06557652109059]
We propose a novel edge prediction paradigm named Edge-aware Message PassIng neuRal nEtworks (EMPIRE)。
まず,各エッジをトポロジや監督のためにのみ使用するエッジ分割手法を提案する。
監視エッジで接続されたペアと接続されていないペアの差を強調するために、さらにメッセージを重み付けして、その差を反映できる相対的なペアを強調します。
論文 参考訳(メタデータ) (2022-12-25T23:19:56Z) - Birds of a Feather Trust Together: Knowing When to Trust a Classifier
via Adaptive Neighborhood Aggregation [30.34223543030105]
我々は、NeighborAggがアダプティブ近隣アグリゲーションを介して2つの重要な情報を利用する方法を示す。
また, 誤り検出の密接な関連課題へのアプローチを拡張し, 偽陰性境界に対する理論的カバレッジを保証する。
論文 参考訳(メタデータ) (2022-11-29T18:43:15Z) - Localized Randomized Smoothing for Collective Robustness Certification [60.83383487495282]
我々は、あらゆる種類のモデルに対してより一般的な集合的ロバスト性証明を提案する。
このアプローチは、より大規模なソフトな局所モデルに対して有益であることを示す。
この証明書は、我々の新しい局所的ランダム化平滑化アプローチに基づいている。
論文 参考訳(メタデータ) (2022-10-28T14:10:24Z) - Label-Only Membership Inference Attack against Node-Level Graph Neural
Networks [30.137860266059004]
グラフニューラルネットワーク(GNN)は、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,GNNのフレキシブル予測機構を利用して,ノード分類のためのラベルのみのMIAを提案する。
攻撃手法は,ほとんどのデータセットやGNNモデルに対して,AUC(Area Under the Curve)の精度,精度,面積の約60%を達成している。
論文 参考訳(メタデータ) (2022-07-27T19:46:26Z) - Shared Certificates for Neural Network Verification [8.777291205946444]
既存のニューラルネットワーク検証器は、与えられた摂動の下で各入力が正しく処理されるという証明を計算する。
このプロセスは、各入力に対して独立してスクラッチから繰り返される。
精度を損なわずにこの検証コストを削減する新しい方法を提案する。
論文 参考訳(メタデータ) (2021-09-01T16:59:09Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Knowing what you know: valid and validated confidence sets in multiclass
and multilabel prediction [0.8594140167290097]
マルチクラスおよびマルチラベル問題において、有効な信頼セットを構築するための共形予測手法を開発する。
量子レグレッションのアイデアを活用することで、常に正しいカバレッジを保証すると同時に、マルチクラスとマルチラベルの予測問題に対して条件付きカバレッジを提供する手法を構築する。
論文 参考訳(メタデータ) (2020-04-21T17:45:38Z) - Heterogeneous Graph Neural Networks for Malicious Account Detection [64.0046412312209]
GEMは、悪意のあるアカウントを検出するための、最初の異種グラフニューラルネットワークである。
我々は、デバイス集約とアクティビティ集約という2つの基本的な弱点に基づいて、異種アカウントデバイスグラフから差別的埋め込みを学習する。
実験により、我々のアプローチは、時間とともに競合する手法と比較して、常に有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-02-27T18:26:44Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。