論文の概要: FairEdit: Preserving Fairness in Graph Neural Networks through Greedy
Graph Editing
- arxiv url: http://arxiv.org/abs/2201.03681v1
- Date: Mon, 10 Jan 2022 22:44:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 20:01:01.082028
- Title: FairEdit: Preserving Fairness in Graph Neural Networks through Greedy
Graph Editing
- Title(参考訳): fairedit: 欲望グラフ編集によるグラフニューラルネットワークの公平性維持
- Authors: Donald Loveland, Jiayi Pan, Aaresh Farrokh Bhathena, Yiyang Lu
- Abstract要約: グラフニューラルネットワーク(GNN)は、基礎となるデータがグラフである予測モデリングタスクに優れていることが証明されている。
本研究は, 未探索のエッジ付加法と, 削除に伴うフェアネスの促進について考察する。
本稿では,エッジ編集を行うためのモデルに依存しない2つのアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have proven to excel in predictive modeling
tasks where the underlying data is a graph. However, as GNNs are extensively
used in human-centered applications, the issue of fairness has arisen. While
edge deletion is a common method used to promote fairness in GNNs, it fails to
consider when data is inherently missing fair connections. In this work we
consider the unexplored method of edge addition, accompanied by deletion, to
promote fairness. We propose two model-agnostic algorithms to perform edge
editing: a brute force approach and a continuous approximation approach,
FairEdit. FairEdit performs efficient edge editing by leveraging gradient
information of a fairness loss to find edges that improve fairness. We find
that FairEdit outperforms standard training for many data sets and GNN methods,
while performing comparably to many state-of-the-art methods, demonstrating
FairEdit's ability to improve fairness across many domains and models.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、基礎となるデータがグラフである予測モデリングタスクに優れていることが証明されている。
しかしながら、GNNは人間中心のアプリケーションで広く使われているため、公平性の問題が持ち上がっている。
エッジ削除は、GNNの公平性を促進するのによく使われる手法であるが、データが本質的に公正な接続を欠いていることを考慮しない。
本研究では,公平性を促進するために,削除を伴うエッジ付加法について検討する。
本稿では,エッジ編集を行うためのモデル非依存な2つのアルゴリズムを提案する。
FairEditは、フェアネス損失の勾配情報を利用して効率の良いエッジ編集を行い、フェアネスを改善するエッジを見つける。
FairEditは、多くのデータセットやGNNメソッドの標準トレーニングよりも優れており、多くの最先端メソッドと互換性があり、FairEditが多くのドメインやモデルにまたがって公正性を向上させる能力を示している。
関連論文リスト
- Fair Augmentation for Graph Collaborative Filtering [16.277363252956114]
近年のレコメンデーションは,ユーザ-イットネットワークからユーザの好みを学習する上で,グラフニューラルネットワーク(GNN)の協調力を活用している。
自動システムの公正性に対処する新たな規制にもかかわらず、グラフ協調フィルタリングにおける不公平性問題は未解決のままである。
本報告は, グラフ協調フィルタリングにおける不公平性問題に焦点をあてた最近の研究に対して, 最新の緩和手法の1つを再現することによって, 確固たる対応を図ったものである。
論文 参考訳(メタデータ) (2024-08-22T08:35:11Z) - ADEdgeDrop: Adversarial Edge Dropping for Robust Graph Neural Networks [53.41164429486268]
グラフニューラルネットワーク(GNN)は、近隣ノードからグラフ構造化情報を収集する強力な能力を示した。
GNNの性能は、ノイズや冗長なグラフデータによって引き起こされる一般化の貧弱さと脆弱な堅牢性によって制限される。
本稿では,エッジの除去を誘導する対向エッジ予測器を利用する新しい対向エッジドロップ法 (ADEdgeDrop) を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:31:39Z) - Endowing Pre-trained Graph Models with Provable Fairness [49.8431177748876]
証明可能な公正性を持つ事前学習グラフモデル(GraphPAR)を実現する新しいアダプタチューニングフレームワークを提案する。
具体的には、各ノードに対して異なる属性意味を持つノード表現を拡張するために、ノード表現に対するセンシティブなセマンティックオーグメンタを設計する。
GraphPARでは、各ノードの公平性が証明可能であるかどうか、すなわち、予測が特定の機密属性セマンティクスの範囲内で常に公平であるかどうかを定量化する。
論文 参考訳(メタデータ) (2024-02-19T14:16:08Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Better Fair than Sorry: Adversarial Missing Data Imputation for Fair
GNNs [6.680930089714339]
本稿では,グラフニューラルネットワーク(GNN)を保護属性の欠如下で学習する問題に対処する。
我々は、公正なGNNが使用する保護属性に対する公正な欠落データ計算モデルであるBFtS(Better Fair than Sorry)を提案する。
論文 参考訳(メタデータ) (2023-11-02T20:57:44Z) - Adversarial Attacks on Fairness of Graph Neural Networks [63.155299388146176]
公正を意識したグラフニューラルネットワーク(GNN)は、どの人口集団でも予測のバイアスを減らすことができるため、注目を集めている。
これらの手法はGNNのアルゴリズム的公正性を大幅に改善するが、慎重に設計された敵攻撃によって容易に公正性を損なうことができる。
論文 参考訳(メタデータ) (2023-10-20T21:19:54Z) - Towards Fair Graph Neural Networks via Graph Counterfactual [38.721295940809135]
グラフニューラルネットワーク(GNN)は、グラフ上での表現(GNN)学習の優れた能力を示し、さまざまなタスクを容易にしている。
最近の研究によると、GNNはトレーニングデータからのバイアスを継承し、増幅する傾向にあり、高いシナリオでGNNが採用されることが懸念されている。
本研究では,非現実的な反事実を避けるために,非現実的な反事実をトレーニングデータから選択できる新しいフレームワークCAFを提案する。
論文 参考訳(メタデータ) (2023-07-10T23:28:03Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - FairMod: Fair Link Prediction and Recommendation via Graph Modification [7.239011273682701]
入力グラフの変更によりGNNが学習したバイアスを軽減するためにFairModを提案する。
提案するモデルでは,GNNのトレーニング中にGNNの微視的あるいはマクロ的な編集を行い,リンクレコメンデーションのコンテキスト下で正確かつ公平なノード埋め込みを学習する。
提案手法の有効性を実世界の4つのデータセットに示すとともに,予測精度のリンクを無視できるコストで,提案するフェアネスをいくつかの要因で改善できることを示す。
論文 参考訳(メタデータ) (2022-01-27T15:49:33Z) - Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning [14.664485680918725]
本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
論文 参考訳(メタデータ) (2021-04-29T08:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。