論文の概要: Exact Certification of (Graph) Neural Networks Against Label Poisoning
- arxiv url: http://arxiv.org/abs/2412.00537v1
- Date: Sat, 30 Nov 2024 17:05:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:46:45.863242
- Title: Exact Certification of (Graph) Neural Networks Against Label Poisoning
- Title(参考訳): ラベル中毒に対する(グラフ)ニューラルネットワークの厳密な認証
- Authors: Mahalakshmi Sabanayagam, Lukas Gosch, Stephan Günnemann, Debarghya Ghoshdastidar,
- Abstract要約: 機械学習モデルはラベルのフリップ(ラベルのフリップ)に弱い。
サンプルと集合証明書の両方を抽出し,正確な認証手法を提案する。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な証明書を提示しました。
- 参考スコア(独自算出の注目度): 50.87615167799367
- License:
- Abstract: Machine learning models are highly vulnerable to label flipping, i.e., the adversarial modification (poisoning) of training labels to compromise performance. Thus, deriving robustness certificates is important to guarantee that test predictions remain unaffected and to understand worst-case robustness behavior. However, for Graph Neural Networks (GNNs), the problem of certifying label flipping has so far been unsolved. We change this by introducing an exact certification method, deriving both sample-wise and collective certificates. Our method leverages the Neural Tangent Kernel (NTK) to capture the training dynamics of wide networks enabling us to reformulate the bilevel optimization problem representing label flipping into a Mixed-Integer Linear Program (MILP). We apply our method to certify a broad range of GNN architectures in node classification tasks. Thereby, concerning the worst-case robustness to label flipping: $(i)$ we establish hierarchies of GNNs on different benchmark graphs; $(ii)$ quantify the effect of architectural choices such as activations, depth and skip-connections; and surprisingly, $(iii)$ uncover a novel phenomenon of the robustness plateauing for intermediate perturbation budgets across all investigated datasets and architectures. While we focus on GNNs, our certificates are applicable to sufficiently wide NNs in general through their NTK. Thus, our work presents the first exact certificate to a poisoning attack ever derived for neural networks, which could be of independent interest.
- Abstract(参考訳): 機械学習モデルはラベルのフリップ(ラベルのフリップ)に対して非常に脆弱である。
したがって、堅牢性証明の導出は、テスト予測が影響を受けないことを保証し、最悪の場合の堅牢性行動を理解するために重要である。
しかし、グラフニューラルネットワーク(GNN)では、ラベルのフリップを認証する問題は未解決である。
サンプルと集合証明書の両方を抽出して、正確な認証手法を導入することで、これを変更します。
提案手法はニューラル・タンジェント・カーネル(NTK)を用いて広帯域ネットワークのトレーニングダイナミクスを捉えることで,ラベルをMILP(Mixed-Integer Linear Program)に切り替えることを表す2レベル最適化問題を再構成する。
本稿では,ノード分類タスクにおける広範囲なGNNアーキテクチャの認証に本手法を適用した。
これにより、ラベルのフリップに対する最悪のケースの堅牢性について:$
(i)$異なるベンチマークグラフ上でGNNの階層を確立する。
(ii)$は、アクティベーション、深さ、スキップ接続のようなアーキテクチャ上の選択の効果を定量化します。
(iii) 調査対象のデータセットおよびアーキテクチャ全体にわたる中間摂動予算に対するロバストネス・プラトーリングの新たな現象を明らかにする。
我々はGNNに焦点を絞っているが、我々の証明書はNTKを通じて十分に広いNNに適用できる。
このように、我々の研究は、ニューラルネットワークのために引き起こされた毒殺攻撃に対する最初の正確な証明を提示する。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification
with Limited Sensitive Information Leakage [1.8238848494579714]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Randomized Message-Interception Smoothing: Gray-box Certificates for Graph Neural Networks [95.89825298412016]
グラフニューラルネットワーク(GNN)のための新しいグレーボックス証明書を提案する。
我々はランダムにメッセージを傍受し、敵に制御されたノードからのメッセージがターゲットノードに到達する確率を分析する。
我々の証明書は、より遠くからの攻撃に対してより強力な保証を提供する。
論文 参考訳(メタデータ) (2023-01-05T12:21:48Z) - Robust Training of Graph Neural Networks via Noise Governance [27.767913371777247]
グラフニューラルネットワーク(GNN)は、半教師付き学習のモデルとして広く使われている。
本稿では,グラフノード上のラベルがうるさいだけでなく,難易度も低い重要なシナリオについて考察する。
本稿では,ラベルノイズを明示的に制御する学習により,ロバスト性を向上する新しいRTGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-12T09:25:32Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Efficient Exact Verification of Binarized Neural Networks [15.639601066641099]
バイナリニューラルネットワーク(BNN)は、同等の堅牢性を提供し、正確かつはるかに効率的な検証を可能にする。
我々は,BNNの効率的かつ正確な検証を行うための新しいシステムであるEEVを提案する。
非自明な畳み込みBNNのL-inf-bounded adversarial robustnessに対する最初の正確な検証結果を示すことにより、脳波の有効性を実証する。
論文 参考訳(メタデータ) (2020-05-07T16:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。