論文の概要: Towards Automatic Bias Detection in Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2109.10697v1
- Date: Sun, 19 Sep 2021 03:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 13:55:30.473966
- Title: Towards Automatic Bias Detection in Knowledge Graphs
- Title(参考訳): 知識グラフの自動バイアス検出に向けて
- Authors: Daphna Keidar, Mian Zhong, Ce Zhang, Yash Raj Shrestha, Bibek Paudel
- Abstract要約: 本稿では,数値バイアス指標に基づいて,知識グラフの埋め込みにおけるバイアスを識別するフレームワークについて述べる。
本稿では,職業予測の課題に対する3つの異なるバイアス尺度を用いて,この枠組みを説明する。
バイアスを負った関係は、その後の偏見を判断するために意思決定者に渡される。
- 参考スコア(独自算出の注目度): 5.402498799294428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the recent surge in social applications relying on knowledge graphs, the
need for techniques to ensure fairness in KG based methods is becoming
increasingly evident. Previous works have demonstrated that KGs are prone to
various social biases, and have proposed multiple methods for debiasing them.
However, in such studies, the focus has been on debiasing techniques, while the
relations to be debiased are specified manually by the user. As manual
specification is itself susceptible to human cognitive bias, there is a need
for a system capable of quantifying and exposing biases, that can support more
informed decisions on what to debias. To address this gap in the literature, we
describe a framework for identifying biases present in knowledge graph
embeddings, based on numerical bias metrics. We illustrate the framework with
three different bias measures on the task of profession prediction, and it can
be flexibly extended to further bias definitions and applications. The
relations flagged as biased can then be handed to decision makers for judgement
upon subsequent debiasing.
- Abstract(参考訳): 近年,知識グラフを活用したソーシャルアプリケーションの普及に伴い,KGに基づく手法の公平性を確保する技術の必要性が高まっている。
これまでの研究では、KGは様々な社会的偏見の傾向を示し、それらを嫌悪する複数の方法を提案してきた。
しかし,このような研究では,デバイアス化技術に焦点が当てられ,デバイアス化される関係はユーザによって手作業で特定されている。
手動仕様は、それ自体が人間の認知バイアスに影響を受けやすいため、バイアスを定量化し、暴露できるシステムが必要である。
文献におけるこのギャップを解決するために,数値バイアス指標に基づいて知識グラフの埋め込みに存在するバイアスを識別する枠組みについて述べる。
本フレームワークは,職業予測の課題に対して,3つの異なるバイアス尺度で説明し,さらなるバイアス定義や応用に柔軟に拡張することができる。
バイアスを負った関係は、その後の偏見を判断するために意思決定者に渡される。
関連論文リスト
- Diversity matters: Robustness of bias measurements in Wikidata [4.950095974653716]
7大陸から選択された13の異なる人口層に対して、ウィキデータに表されるデータのバイアスを明らかにする。
我々は、13の人口層から採取された多数の職業について、センシティブな属性、すなわち性別に関する広範な実験を行う。
我々は,現在最先端のKG埋め込みアルゴリズムの選択が,性別に関わらず,偏りのある職業のランク付けに強い影響を与えることを示した。
論文 参考訳(メタデータ) (2023-02-27T18:38:10Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Gradient Based Activations for Accurate Bias-Free Learning [22.264226961225003]
このバイアス・精度のトレードオフを改善するために、偏微分器が実際に利用できることを示す。
具体的には、判別器の勾配を用いた特徴マスキング手法を用いる。
この単純なアプローチはバイアスを低減し、精度を大幅に向上させるのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-17T00:30:40Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Evaluating Metrics for Bias in Word Embeddings [64.55554083622258]
我々は、過去の研究の考えに基づいてバイアス定義を定式化し、バイアスメトリクスの条件を導出する。
そこで我々は,既存のメトリクスの欠点に対処する新しい計量であるhetを提案し,その振る舞いを数学的に証明する。
論文 参考訳(メタデータ) (2021-11-15T16:07:15Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - Correcting Exposure Bias for Link Recommendation [31.799185352323807]
露出バイアスは、ユーザーが特定の関連項目に体系的に過小評価されているときに生じる。
このバイアスを軽減するために、既知の露光確率を利用する推定器を提案する。
我々の手法は、推奨論文の研究分野においてより多様性をもたらす。
論文 参考訳(メタデータ) (2021-06-13T16:51:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。