論文の概要: Fairness in Graph Mining: A Survey
- arxiv url: http://arxiv.org/abs/2204.09888v3
- Date: Tue, 11 Apr 2023 05:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 19:24:01.926993
- Title: Fairness in Graph Mining: A Survey
- Title(参考訳): グラフマイニングにおける公平性:調査
- Authors: Yushun Dong, Jing Ma, Song Wang, Chen Chen, Jundong Li
- Abstract要約: グラフマイニングアルゴリズムは、人間中心のアプリケーションで悪用された場合、特定の人口に対する差別につながる可能性がある。
グラフ上の公平性の概念の新たな分類法を提案し,その関係や相違点に光を当てる。
本稿では,グラフマイニングにおける公正性を促進する既存手法について概説する。
- 参考スコア(独自算出の注目度): 36.34373832850891
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph mining algorithms have been playing a significant role in myriad fields
over the years. However, despite their promising performance on various graph
analytical tasks, most of these algorithms lack fairness considerations. As a
consequence, they could lead to discrimination towards certain populations when
exploited in human-centered applications. Recently, algorithmic fairness has
been extensively studied in graph-based applications. In contrast to
algorithmic fairness on independent and identically distributed (i.i.d.) data,
fairness in graph mining has exclusive backgrounds, taxonomies, and fulfilling
techniques. In this survey, we provide a comprehensive and up-to-date
introduction of existing literature under the context of fair graph mining.
Specifically, we propose a novel taxonomy of fairness notions on graphs, which
sheds light on their connections and differences. We further present an
organized summary of existing techniques that promote fairness in graph mining.
Finally, we summarize the widely used datasets in this emerging research field
and provide insights on current research challenges and open questions, aiming
at encouraging cross-breeding ideas and further advances.
- Abstract(参考訳): グラフマイニングアルゴリズムは、長年にわたり無数の分野で重要な役割を果たしてきた。
しかしながら、様々なグラフ分析タスクで有望な性能を発揮するにもかかわらず、これらのアルゴリズムのほとんどは公平性に配慮していない。
結果として、人間中心の応用で利用される特定の集団に対する差別につながる可能性がある。
近年、アルゴリズムの公正性はグラフベースのアプリケーションで広く研究されている。
独立で同一に分散されたデータに対するアルゴリズム上の公正さとは対照的に、グラフマイニングにおける公正さは排他的背景、分類学、達成技術を持っている。
本調査では,公正なグラフマイニングの文脈下で,既存の文献を包括的かつ最新に紹介する。
具体的には,グラフ上の公平性の概念の新たな分類法を提案する。
さらに,グラフマイニングにおける公平性を促進する既存の手法の整理的な概要を示す。
最後に、この新興研究分野において広く使われているデータセットを要約し、現在の研究課題やオープンな質問に対する洞察を提供し、異種交配のアイデアの奨励とさらなる進歩を目指している。
関連論文リスト
- A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Few-Shot Learning on Graphs: from Meta-learning to Pre-training and
Prompting [56.25730255038747]
この調査は、最近の展開を合成し、比較洞察を提供し、将来の方向性を特定するための取り組みである。
我々は,既存の研究をメタラーニングアプローチ,事前学習アプローチ,ハイブリッドアプローチの3つの主要なファミリーに体系的に分類した。
これらの手法間の関係を解析し,その強みと限界を比較する。
論文 参考訳(メタデータ) (2024-02-02T14:32:42Z) - Graph Domain Adaptation: Challenges, Progress and Prospects [61.9048172631524]
本稿では,グラフ間の効果的な知識伝達パラダイムとしてグラフ領域適応を提案する。
GDAは、ソースグラフとしてタスク関連のグラフを多数導入し、ソースグラフから学習した知識をターゲットグラフに適応させる。
研究状況と課題について概説し、分類学を提案し、代表作の詳細を紹介し、今後の展望について論じる。
論文 参考訳(メタデータ) (2024-02-01T02:44:32Z) - Graph Fairness Learning under Distribution Shifts [33.9878682279549]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて顕著なパフォーマンスを実現している。
GNNは、トレーニングデータから偏見を継承し、性別や人種などのセンシティブな属性に基づいて差別予測を行うことができる。
本稿では,異なる距離で有意な偏差を持つ多数のグラフを生成するグラフ生成器を提案する。
論文 参考訳(メタデータ) (2024-01-30T06:51:24Z) - A Comprehensive Survey on Graph Reduction: Sparsification, Coarsening, and Condensation [21.76051896779245]
本研究の目的は,グラフスペーシング,グラフ粗化,グラフ凝縮など,グラフ縮小手法の包括的理解を提供することである。
そこで本研究では,これらの手法の技術的詳細を体系的にレビューし,様々なシナリオにまたがる実践的応用を強調した。
論文 参考訳(メタデータ) (2024-01-29T01:19:09Z) - A Survey of Imbalanced Learning on Graphs: Problems, Techniques, and
Future Directions [64.84521350148513]
グラフは、現実世界の無数に存在する相互接続構造を表す。
グラフ学習方法のような効果的なグラフ分析により、ユーザはグラフデータから深い洞察を得ることができる。
しかし、これらの手法はデータ不均衡に悩まされることが多く、グラフデータでは、あるセグメントが豊富なデータを持っているのに、他のセグメントが不足しているのが一般的な問題である。
これは、より正確で代表的な学習結果のために、これらのデータ分散スキューを補正することを目的として、グラフ上の不均衡学習の出現する分野を必要とする。
論文 参考訳(メタデータ) (2023-08-26T09:11:44Z) - BiaScope: Visual Unfairness Diagnosis for Graph Embeddings [8.442750346008431]
本稿では,グラフ埋め込みにおけるエンドツーエンドの視覚不公平性診断を支援するインタラクティブな可視化ツールであるBiaScopeを紹介する。
これは、(すなわち、公正性に関して2つの埋め込みを視覚的に比較し、(ii)不公平に埋め込まれたノードやグラフのコミュニティを特定し、(iii)関連する埋め込みサブスペースと対応するグラフトポロジーとを対話的にリンクすることによってバイアスの源を理解することを可能にする。
論文 参考訳(メタデータ) (2022-10-12T17:12:19Z) - A Survey on Fairness for Machine Learning on Graphs [2.3326951882644553]
この調査は、リレーショナルデータに対する公平性に特化した最初の調査である。
グラフマイニングの公正性において、最先端技術に関する包括的なレビューを提示することを目的としている。
論文 参考訳(メタデータ) (2022-05-11T10:40:56Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning [14.664485680918725]
本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
論文 参考訳(メタデータ) (2021-04-29T08:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。