論文の概要: Towards Automatic Bias Detection in Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2109.10697v1
- Date: Sun, 19 Sep 2021 03:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:55:30.473966
- Title: Towards Automatic Bias Detection in Knowledge Graphs
- Title(参考訳): 知識グラフの自動バイアス検出に向けて
- Authors: Daphna Keidar, Mian Zhong, Ce Zhang, Yash Raj Shrestha, Bibek Paudel
- Abstract要約: 本稿では,数値バイアス指標に基づいて,知識グラフの埋め込みにおけるバイアスを識別するフレームワークについて述べる。
本稿では,職業予測の課題に対する3つの異なるバイアス尺度を用いて,この枠組みを説明する。
バイアスを負った関係は、その後の偏見を判断するために意思決定者に渡される。
- 参考スコア(独自算出の注目度): 5.402498799294428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the recent surge in social applications relying on knowledge graphs, the
need for techniques to ensure fairness in KG based methods is becoming
increasingly evident. Previous works have demonstrated that KGs are prone to
various social biases, and have proposed multiple methods for debiasing them.
However, in such studies, the focus has been on debiasing techniques, while the
relations to be debiased are specified manually by the user. As manual
specification is itself susceptible to human cognitive bias, there is a need
for a system capable of quantifying and exposing biases, that can support more
informed decisions on what to debias. To address this gap in the literature, we
describe a framework for identifying biases present in knowledge graph
embeddings, based on numerical bias metrics. We illustrate the framework with
three different bias measures on the task of profession prediction, and it can
be flexibly extended to further bias definitions and applications. The
relations flagged as biased can then be handed to decision makers for judgement
upon subsequent debiasing.
- Abstract(参考訳): 近年,知識グラフを活用したソーシャルアプリケーションの普及に伴い,KGに基づく手法の公平性を確保する技術の必要性が高まっている。
これまでの研究では、KGは様々な社会的偏見の傾向を示し、それらを嫌悪する複数の方法を提案してきた。
しかし,このような研究では,デバイアス化技術に焦点が当てられ,デバイアス化される関係はユーザによって手作業で特定されている。
手動仕様は、それ自体が人間の認知バイアスに影響を受けやすいため、バイアスを定量化し、暴露できるシステムが必要である。
文献におけるこのギャップを解決するために,数値バイアス指標に基づいて知識グラフの埋め込みに存在するバイアスを識別する枠組みについて述べる。
本フレームワークは,職業予測の課題に対して,3つの異なるバイアス尺度で説明し,さらなるバイアス定義や応用に柔軟に拡張することができる。
バイアスを負った関係は、その後の偏見を判断するために意思決定者に渡される。
関連論文リスト
- Measuring and Addressing Indexical Bias in Information Retrieval [69.7897730778898]
PAIRフレームワークは、ランキングドキュメンテーションやIRシステム全体の自動バイアス監査をサポートする。
DUOを導入した後、我々は32kの合成と4.7kの天然文書からなる新しいコーパスで8つのIRシステムの広範な評価を行った。
人間の行動学的研究は、私たちのアプローチを検証し、私たちのバイアスメトリクスが、いつ、どのように指標バイアスが読者の意見を変えるかを予測するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-06T17:42:37Z) - Language-guided Detection and Mitigation of Unknown Dataset Bias [23.299264313976213]
本稿では,キャプションの部分的発生に基づく事前知識のないキーワードとして潜在的なバイアスを識別する枠組みを提案する。
我々のフレームワークは、事前知識のない既存のメソッドよりも優れているだけでなく、事前知識を前提としたメソッドにさえ匹敵する。
論文 参考訳(メタデータ) (2024-06-05T03:11:33Z) - A Principled Approach for a New Bias Measure [7.352247786388098]
偏差値の全範囲で明確かつ簡単な解釈を行う最初のバイアス尺度であるUniform Bias (UB) の定義を提案する。
この結果は,9つの公開データセットを用いて実験的に検証され,理論的に解析され,新たな知見が得られた。
当社のアプローチに基づいて、政策立案者にとって有用なバイアス緩和モデルも設計しています。
論文 参考訳(メタデータ) (2024-05-20T18:14:33Z) - Diversity matters: Robustness of bias measurements in Wikidata [4.950095974653716]
7大陸から選択された13の異なる人口層に対して、ウィキデータに表されるデータのバイアスを明らかにする。
我々は、13の人口層から採取された多数の職業について、センシティブな属性、すなわち性別に関する広範な実験を行う。
我々は,現在最先端のKG埋め込みアルゴリズムの選択が,性別に関わらず,偏りのある職業のランク付けに強い影響を与えることを示した。
論文 参考訳(メタデータ) (2023-02-27T18:38:10Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。