論文の概要: BiaScope: Visual Unfairness Diagnosis for Graph Embeddings
- arxiv url: http://arxiv.org/abs/2210.06417v1
- Date: Wed, 12 Oct 2022 17:12:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:39:39.102713
- Title: BiaScope: Visual Unfairness Diagnosis for Graph Embeddings
- Title(参考訳): BiaScope: グラフ埋め込みのための視覚異常診断
- Authors: Agapi Rissaki, Bruno Scarone, David Liu, Aditeya Pandey, Brennan
Klein, Tina Eliassi-Rad, Michelle A. Borkin
- Abstract要約: 本稿では,グラフ埋め込みにおけるエンドツーエンドの視覚不公平性診断を支援するインタラクティブな可視化ツールであるBiaScopeを紹介する。
これは、(すなわち、公正性に関して2つの埋め込みを視覚的に比較し、(ii)不公平に埋め込まれたノードやグラフのコミュニティを特定し、(iii)関連する埋め込みサブスペースと対応するグラフトポロジーとを対話的にリンクすることによってバイアスの源を理解することを可能にする。
- 参考スコア(独自算出の注目度): 8.442750346008431
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The issue of bias (i.e., systematic unfairness) in machine learning models
has recently attracted the attention of both researchers and practitioners. For
the graph mining community in particular, an important goal toward algorithmic
fairness is to detect and mitigate bias incorporated into graph embeddings
since they are commonly used in human-centered applications, e.g., social-media
recommendations. However, simple analytical methods for detecting bias
typically involve aggregate statistics which do not reveal the sources of
unfairness. Instead, visual methods can provide a holistic fairness
characterization of graph embeddings and help uncover the causes of observed
bias. In this work, we present BiaScope, an interactive visualization tool that
supports end-to-end visual unfairness diagnosis for graph embeddings. The tool
is the product of a design study in collaboration with domain experts. It
allows the user to (i) visually compare two embeddings with respect to
fairness, (ii) locate nodes or graph communities that are unfairly embedded,
and (iii) understand the source of bias by interactively linking the relevant
embedding subspace with the corresponding graph topology. Experts' feedback
confirms that our tool is effective at detecting and diagnosing unfairness.
Thus, we envision our tool both as a companion for researchers in designing
their algorithms as well as a guide for practitioners who use off-the-shelf
graph embeddings.
- Abstract(参考訳): 機械学習モデルにおけるバイアス(すなわち系統的不公平)の問題は最近、研究者と実践者の双方の注目を集めている。
特にグラフマイニングコミュニティにとって、アルゴリズムの公平性に対する重要な目標は、例えばソーシャルメディアのレコメンデーションのような人間中心のアプリケーションで一般的に使われているので、グラフ埋め込みに含まれるバイアスを検出し軽減することである。
しかし、バイアスを検出する単純な分析手法は、一般に不公平な原因を明らかにしない集計統計を伴う。
その代わり、ビジュアルメソッドはグラフ埋め込みの包括的公平性を提供し、観察されたバイアスの原因を明らかにするのに役立つ。
本稿では,グラフ埋め込みにおけるエンドツーエンドの視覚不公平性診断を支援する対話型可視化ツールbiascopeを提案する。
このツールはドメインの専門家とのコラボレーションによるデザインスタディの産物です。
ユーザーが使えるようになる。
(i)公正性に関して2つの埋め込みを視覚的に比較する。
(ii)不公平に埋め込まれたノード又はグラフコミュニティの特定及び
(iii)関連する埋め込み部分空間と対応するグラフトポロジーを対話的に結びつけることでバイアスの源を理解する。
専門家のフィードバックは、我々のツールが不公平の検出と診断に有効であることを確認する。
そこで我々は,本ツールが研究者のアルゴリズム設計のコンパニオンであると同時に,既成のグラフ埋め込みを用いた実践者のためのガイドとなることを想定する。
関連論文リスト
- FairWire: Fair Graph Generation [18.6649050946022]
この研究は、実グラフと合成グラフの両方における構造バイアスの分析と緩和に焦点を当てている。
同定されたバイアス要因を緩和するため、多目的な利用を提供する新しい公正正則化器を設計する。
本稿では, 公正な正規化器設計を生成モデルで活用することにより, 公正なグラフ生成フレームワークであるFairWireを提案する。
論文 参考訳(メタデータ) (2024-02-06T20:43:00Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - A Survey of Imbalanced Learning on Graphs: Problems, Techniques, and
Future Directions [64.84521350148513]
グラフは、現実世界の無数に存在する相互接続構造を表す。
グラフ学習方法のような効果的なグラフ分析により、ユーザはグラフデータから深い洞察を得ることができる。
しかし、これらの手法はデータ不均衡に悩まされることが多く、グラフデータでは、あるセグメントが豊富なデータを持っているのに、他のセグメントが不足しているのが一般的な問題である。
これは、より正確で代表的な学習結果のために、これらのデータ分散スキューを補正することを目的として、グラフ上の不均衡学習の出現する分野を必要とする。
論文 参考訳(メタデータ) (2023-08-26T09:11:44Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - A Survey on Fairness for Machine Learning on Graphs [2.3326951882644553]
この調査は、リレーショナルデータに対する公平性に特化した最初の調査である。
グラフマイニングの公正性において、最先端技術に関する包括的なレビューを提示することを目的としている。
論文 参考訳(メタデータ) (2022-05-11T10:40:56Z) - Graph-in-Graph (GiG): Learning interpretable latent graphs in
non-Euclidean domain for biological and healthcare applications [52.65389473899139]
グラフは、医療領域において、非ユークリッドな非ユークリッドデータをユビキタスに表現し、分析するための強力なツールである。
近年の研究では、入力データサンプル間の関係を考慮すると、下流タスクに正の正の正則化効果があることが示されている。
タンパク質分類と脳イメージングのためのニューラルネットワークアーキテクチャであるGraph-in-Graph(GiG)を提案する。
論文 参考訳(メタデータ) (2022-04-01T10:01:37Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Biased Edge Dropout for Enhancing Fairness in Graph Representation
Learning [14.664485680918725]
本稿では,グラフ表現学習における公平性向上と相反するバイアスド・エッジ・ドロップアウトアルゴリズム(fairdrop)を提案する。
FairDropは、多くの既存のアルゴリズムに簡単に接続でき、効率的で適応可能で、他の公平性誘導ソリューションと組み合わせることができます。
提案手法は,すべてのモデルのフェアネスを小さく,あるいは無視可能な精度低下まで改善できることを実証する。
論文 参考訳(メタデータ) (2021-04-29T08:59:36Z) - A Survey of Adversarial Learning on Graphs [59.21341359399431]
本稿では,グラフ逆学習タスクに関する既存の研究を考察し,要約する。
具体的には、グラフ解析タスクにおける攻撃と防御に関する既存の作業を調査し、統一する。
我々は、関連する評価指標の重要性を強調し、それらを総合的に調査し、要約する。
論文 参考訳(メタデータ) (2020-03-10T12:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。