論文の概要: Impact Of Missing Data Imputation On The Fairness And Accuracy Of Graph
Node Classifiers
- arxiv url: http://arxiv.org/abs/2211.00783v1
- Date: Tue, 1 Nov 2022 23:16:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 14:49:00.891001
- Title: Impact Of Missing Data Imputation On The Fairness And Accuracy Of Graph
Node Classifiers
- Title(参考訳): グラフノード分類器の公平性と正確性に及ぼすデータの欠落の影響
- Authors: Haris Mansoor, Sarwan Ali, Shafiq Alam, Muhammad Asad Khan, Umair ul
Hassan, Imdadullah Khan
- Abstract要約: グラフデータ(ノード属性)インプットの文脈における公平性への影響を,埋め込みとニューラルネットワークの異なる手法を用いて解析する。
この結果から,グラフデータの公平性や,グラフの欠落を効率的に処理する方法について,貴重な知見が得られる。
- 参考スコア(独自算出の注目度): 0.19573380763700707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analysis of the fairness of machine learning (ML) algorithms recently
attracted many researchers' interest. Most ML methods show bias toward
protected groups, which limits the applicability of ML models in many
applications like crime rate prediction etc. Since the data may have missing
values which, if not appropriately handled, are known to further harmfully
affect fairness. Many imputation methods are proposed to deal with missing
data. However, the effect of missing data imputation on fairness is not studied
well. In this paper, we analyze the effect on fairness in the context of graph
data (node attributes) imputation using different embedding and neural network
methods. Extensive experiments on six datasets demonstrate severe fairness
issues in missing data imputation under graph node classification. We also find
that the choice of the imputation method affects both fairness and accuracy.
Our results provide valuable insights into graph data fairness and how to
handle missingness in graphs efficiently. This work also provides directions
regarding theoretical studies on fairness in graph data.
- Abstract(参考訳): 機械学習(ML)アルゴリズムの公正性の分析は、最近多くの研究者の関心を集めている。
ほとんどのMLメソッドは保護されたグループに対するバイアスを示しており、犯罪率予測などの多くのアプリケーションにおけるMLモデルの適用性を制限する。
データが適切に処理されていない場合、フェアネスに悪影響を及ぼすことが知られている。
欠落データを扱うために多くのインプテーション手法が提案されている。
しかし,データの欠落が公平性に与える影響はよく研究されていない。
本稿では,グラフデータ(ノード属性)インプットの文脈における公平性への影響を,埋め込みとニューラルネットワークの異なる手法を用いて解析する。
6つのデータセットに対する大規模な実験は、グラフノード分類の下での欠落データ計算において深刻な公平性の問題を示す。
また,提案手法の選択は公平性と精度の両方に影響を及ぼすことがわかった。
この結果は,グラフデータの公平性や,グラフの欠落を効率的に処理する方法に関する貴重な知見を提供する。
この研究は、グラフデータの公正性に関する理論的研究に関する方向性も提供する。
関連論文リスト
- Is it Still Fair? A Comparative Evaluation of Fairness Algorithms through the Lens of Covariate Drift [17.498879317113385]
データ分散ドリフトとその公正度アルゴリズムとメトリクスへの影響について検討する。
場合によっては、データ分布のドリフトは、いわゆるフェアモデルにおいて、フェアネスの深刻な劣化を引き起こすことがある。
本研究の成果から,データ分散ドリフトが公正性アルゴリズムにもたらすいくつかの政策的含意を合成する。
論文 参考訳(メタデータ) (2024-09-19T03:18:12Z) - Fair GLASSO: Estimating Fair Graphical Models with Unbiased Statistical Behavior [31.92791228859847]
多くの現実世界のモデルは、データのバイアスによって不公平な差別行動を示す。
統計的類似性のバランスを促進するために,2つのバイアス指標の形でグラフィカルモデルの公平性を導入する。
スパースガウス精度行列を得るための正規化グラフィカルラッソであるFair GLASSOを提案する。
論文 参考訳(メタデータ) (2024-06-13T18:07:04Z) - Graph Fairness Learning under Distribution Shifts [33.9878682279549]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて顕著なパフォーマンスを実現している。
GNNは、トレーニングデータから偏見を継承し、性別や人種などのセンシティブな属性に基づいて差別予測を行うことができる。
本稿では,異なる距離で有意な偏差を持つ多数のグラフを生成するグラフ生成器を提案する。
論文 参考訳(メタデータ) (2024-01-30T06:51:24Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Fair Attribute Completion on Graph with Missing Attributes [14.950261239035882]
フェア属性補完法であるFairACを提案し,不備な属性を持つグラフに対するフェアノード埋め込みを学習する。
本手法は,公正なグラフ学習の最先端手法と比較して,精度の犠牲を少なくして,公平性を向上できることを示す。
論文 参考訳(メタデータ) (2023-02-25T04:12:30Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Counterfactual Fairness with Partially Known Causal Graph [85.15766086381352]
本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
論文 参考訳(メタデータ) (2022-05-27T13:40:50Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。