論文の概要: Fairness Amidst Non-IID Graph Data: A Literature Review
- arxiv url: http://arxiv.org/abs/2202.07170v2
- Date: Wed, 16 Feb 2022 04:57:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 13:23:17.927510
- Title: Fairness Amidst Non-IID Graph Data: A Literature Review
- Title(参考訳): 非IIDグラフデータの公正性:文献レビュー
- Authors: Wenbin Zhang, Jeremy C. Weiss, Shuigeng Zhou and Toby Walsh
- Abstract要約: 機械学習(ML)の公正さが注目され、多くの文献が研究されている。
一方、グラフは個々のユニット間の接続をキャプチャするためのユビキタスなデータ構造であり、本質的にIIDではない。
したがって、IIDデータとユビキタスな非IIDグラフ表現に基づいて設計された伝統的な公正な文献を、MLシステムのバイアスに対処するために橋渡しすることが非常に重要である。
- 参考スコア(独自算出の注目度): 33.19124464977519
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Fairness in machine learning (ML), the process to understand and correct
algorithmic bias, has gained increasing attention with numerous literature
being carried out, commonly assume the underlying data is independent and
identically distributed (IID). On the other hand, graphs are a ubiquitous data
structure to capture connections among individual units and is non-IID by
nature. It is therefore of great importance to bridge the traditional fairness
literature designed on IID data and ubiquitous non-IID graph representations to
tackle bias in ML systems. In this survey, we review such recent advance in
fairness amidst non-IID graph data and identify datasets and evaluation metrics
available for future research. We also point out the limitations of existing
work as well as promising future directions.
- Abstract(参考訳): 機械学習(ML)の公正さは、アルゴリズムバイアスを理解し、修正するプロセスであり、多くの文献が実行され、基礎となるデータが独立で同一の分散(IID)であると仮定されるようになり、注目を集めている。
一方でグラフは、個々のユニット間の接続をキャプチャするユビキタスなデータ構造であり、本質的には非iidである。
したがって、IIDデータとユビキタスな非IIDグラフ表現に基づいて設計された伝統的な公正な文献を、MLシステムのバイアスに対処するために橋渡しすることが非常に重要である。
本研究では,非IIDグラフデータにおける公平性の最近の進歩を概観し,今後の研究で利用可能なデータセットと評価指標を同定する。
既存の作業の限界や将来的な方向性についても指摘しています。
関連論文リスト
- DAGnosis: Localized Identification of Data Inconsistencies using
Structures [73.39285449012255]
機械学習モデルを確実に使用するためには、デプロイメント時のデータの不整合の特定と適切な処理が不可欠である。
我々は,有向非巡回グラフ(DAG)を用いて,トレーニングセットの特徴分布と非依存性を構造として符号化する。
我々の手法はDAGnosisと呼ばれ、これらの構造的相互作用を利用して、価値があり洞察に富んだデータ中心の結論をもたらす。
論文 参考訳(メタデータ) (2024-02-26T11:29:16Z) - DSAP: Analyzing Bias Through Demographic Comparison of Datasets [4.8741052091630985]
DSAP(Demographic similarity from Auxiliary Profiles)は、2つのデータセットの人口構成を比較するための2段階の手法である。
DSAPは3つの主要なアプリケーションにデプロイすることができる。データセット間での人口統計学的盲点とバイアスの問題の検出と特徴付け、単一のデータセットにおけるデータセットの人口統計学的バイアスの測定、デプロイメントシナリオにおけるデータセットの人口統計学的シフトの測定である。
DSAPの重要な特徴は、明示的な人口統計ラベルなしでデータセットを堅牢に分析し、広範囲の状況に対してシンプルで解釈可能な機能を提供することである。
論文 参考訳(メタデータ) (2023-12-22T11:51:20Z) - Towards Self-Interpretable Graph-Level Anomaly Detection [73.1152604947837]
グラフレベルの異常検出(GLAD)は、コレクションの大多数と比べて顕著な相違を示すグラフを識別することを目的としている。
本稿では,異常なグラフを検出し,同時に情報的説明を生成する自己解釈グラフaNomaly dETectionモデル(SIGNET)を提案する。
論文 参考訳(メタデータ) (2023-10-25T10:10:07Z) - Benchmarking and Analyzing Generative Data for Visual Recognition [66.55174903469722]
この研究は生成的画像の影響を深く掘り下げ、主に外部データを利用するパラダイムを比較する。
我々は、2548のカテゴリを持つ22のデータセットからなるベンチマークである textbfGenBench を考案し、様々な視覚的認識タスクにまたがる生成データを評価した。
我々の徹底的なベンチマークと分析は、将来の調査における重要な課題を特定しながら、視覚認識における生成データの約束をスポットライトで示している。
論文 参考訳(メタデータ) (2023-07-25T17:59:59Z) - Metrics for Dataset Demographic Bias: A Case Study on Facial Expression
Recognition [1.5340540198612824]
人口統計バイアスの最も顕著な種類は、データセットにおける人口統計群の表現における統計的不均衡である。
我々はこれらの指標を分類するための分類法を開発し、適切な指標を選択するための実践的なガイドを提供する。
この論文は、データセットバイアスを緩和し、AIモデルの公正性と正確性を改善するために、AIと関連する分野の研究者に貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-28T11:04:18Z) - GOOD-D: On Unsupervised Graph Out-Of-Distribution Detection [67.90365841083951]
我々は,OODグラフを検出するための新しいグラフコントラスト学習フレームワークGOOD-Dを開発した。
GOOD-Dは、潜在IDパターンをキャプチャし、異なる粒度のセマンティック不整合に基づいてOODグラフを正確に検出することができる。
教師なしグラフレベルのOOD検出における先駆的な研究として,提案手法と最先端手法を比較した総合的なベンチマークを構築した。
論文 参考訳(メタデータ) (2022-11-08T12:41:58Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Representation Bias in Data: A Survey on Identification and Resolution
Techniques [26.142021257838564]
データ駆動型アルゴリズムは、それらが扱うデータと同程度にしか機能しないが、データセット、特にソーシャルデータはしばしば、マイノリティを適切に表現できない。
データにおける表現バイアスは、歴史的差別から、データ取得と作成方法におけるバイアスのサンプリングまで、さまざまな理由により起こりうる。
本稿では,後日どのように消費されるかに関わらず,表現バイアスをデータセットの特徴として同定し,解決する方法についての文献をレビューする。
論文 参考訳(メタデータ) (2022-03-22T16:30:22Z) - Data Representativity for Machine Learning and AI Systems [2.588973722689844]
機械学習モデルを通じてデータから推論を描く場合、データの表現力は不可欠である。
本稿では,AIとサンプリングに関する科学文献におけるデータ表現性について分析する。
論文 参考訳(メタデータ) (2022-03-09T13:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。