論文の概要: Deceptive Fairness Attacks on Graphs via Meta Learning
- arxiv url: http://arxiv.org/abs/2310.15653v1
- Date: Tue, 24 Oct 2023 09:10:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 19:41:42.958645
- Title: Deceptive Fairness Attacks on Graphs via Meta Learning
- Title(参考訳): メタ学習によるグラフ上の知覚的公正攻撃
- Authors: Jian Kang, Yinglong Xia, Ross Maciejewski, Jiebo Luo, Hanghang Tong
- Abstract要約: グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
- 参考スコア(独自算出の注目度): 102.53029537886314
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study deceptive fairness attacks on graphs to answer the following
question: How can we achieve poisoning attacks on a graph learning model to
exacerbate the bias deceptively? We answer this question via a bi-level
optimization problem and propose a meta learning-based framework named FATE.
FATE is broadly applicable with respect to various fairness definitions and
graph learning models, as well as arbitrary choices of manipulation operations.
We further instantiate FATE to attack statistical parity and individual
fairness on graph neural networks. We conduct extensive experimental
evaluations on real-world datasets in the task of semi-supervised node
classification. The experimental results demonstrate that FATE could amplify
the bias of graph neural networks with or without fairness consideration while
maintaining the utility on the downstream task. We hope this paper provides
insights into the adversarial robustness of fair graph learning and can shed
light on designing robust and fair graph learning in future studies.
- Abstract(参考訳): グラフ学習モデルにおいて、どのようにして有害な攻撃を達成し、偏見を欺いて悪化させることができるのか?
本稿では,二段階最適化問題を通じてこの問題に答え,FATEというメタ学習ベースのフレームワークを提案する。
FATEは、様々な公正定義やグラフ学習モデル、操作操作の任意の選択に関して広く適用できる。
さらに、グラフニューラルネットワーク上での統計的パリティと個別の公正性を攻撃するためにFATEをインスタンス化する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに対する広範な実験評価を行う。
実験の結果,下流タスクの実用性を維持しつつ,公平性を考慮したグラフニューラルネットワークのバイアスを増大させる可能性が示唆された。
本稿では、公正グラフ学習の対角的堅牢性に関する洞察を提供し、将来の研究における堅牢かつ公正なグラフ学習の設計に光を当てることを望む。
関連論文リスト
- A Survey of Deep Graph Learning under Distribution Shifts: from Graph Out-of-Distribution Generalization to Adaptation [59.14165404728197]
我々は,分散シフト下での深層グラフ学習について,最新かつ先見的なレビューを行う。
具体的には,グラフ OOD 一般化,トレーニング時グラフ OOD 適応,テスト時グラフ OOD 適応の3つのシナリオについて述べる。
文献の理解を深めるために,提案した分類に基づく既存モデルを体系的に分類した。
論文 参考訳(メタデータ) (2024-10-25T02:39:56Z) - Graph Fairness Learning under Distribution Shifts [33.9878682279549]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて顕著なパフォーマンスを実現している。
GNNは、トレーニングデータから偏見を継承し、性別や人種などのセンシティブな属性に基づいて差別予測を行うことができる。
本稿では,異なる距離で有意な偏差を持つ多数のグラフを生成するグラフ生成器を提案する。
論文 参考訳(メタデータ) (2024-01-30T06:51:24Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Unsupervised Graph Poisoning Attack via Contrastive Loss
Back-propagation [18.671374133506838]
本稿では,グラフのコントラスト学習にラベルを頼らない,教師なし勾配に基づく新たな逆攻撃を提案する。
我々の攻撃は教師なしベースライン攻撃よりも優れており、複数の下流タスクにおける教師なし攻撃と同等のパフォーマンスを持つ。
論文 参考訳(メタデータ) (2022-01-20T03:32:21Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Adversarial Attack Framework on Graph Embedding Models with Limited
Knowledge [126.32842151537217]
現存する作品は通常、ホワイトボックス方式で攻撃を行う。
ブラックボックス駆動で様々なグラフ埋め込みモデルに対処する必要がある。
GF-Attackはグラフ埋め込みモデルの層数を知ることなく効果的な攻撃を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-26T09:18:58Z) - Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning [14.664485680918725]
本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
論文 参考訳(メタデータ) (2021-04-29T08:59:36Z) - A Survey of Adversarial Learning on Graphs [59.21341359399431]
本稿では,グラフ逆学習タスクに関する既存の研究を考察し,要約する。
具体的には、グラフ解析タスクにおける攻撃と防御に関する既存の作業を調査し、統一する。
我々は、関連する評価指標の重要性を強調し、それらを総合的に調査し、要約する。
論文 参考訳(メタデータ) (2020-03-10T12:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。