論文の概要: Diversity matters: Robustness of bias measurements in Wikidata
- arxiv url: http://arxiv.org/abs/2302.14027v1
- Date: Mon, 27 Feb 2023 18:38:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 14:24:35.579891
- Title: Diversity matters: Robustness of bias measurements in Wikidata
- Title(参考訳): 多様性の問題:Wikidataにおけるバイアス測定のロバスト性
- Authors: Paramita Das, Sai Keerthana Karnam, Anirban Panda, Bhanu Prakash Reddy
Guda, Soumya Sarkar, Animesh Mukherjee
- Abstract要約: 7大陸から選択された13の異なる人口層に対して、ウィキデータに表されるデータのバイアスを明らかにする。
我々は、13の人口層から採取された多数の職業について、センシティブな属性、すなわち性別に関する広範な実験を行う。
我々は,現在最先端のKG埋め込みアルゴリズムの選択が,性別に関わらず,偏りのある職業のランク付けに強い影響を与えることを示した。
- 参考スコア(独自算出の注目度): 4.950095974653716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the widespread use of knowledge graphs (KG) in various automated AI
systems and applications, it is very important to ensure that information
retrieval algorithms leveraging them are free from societal biases. Previous
works have depicted biases that persist in KGs, as well as employed several
metrics for measuring the biases. However, such studies lack the systematic
exploration of the sensitivity of the bias measurements, through varying
sources of data, or the embedding algorithms used. To address this research
gap, in this work, we present a holistic analysis of bias measurement on the
knowledge graph. First, we attempt to reveal data biases that surface in
Wikidata for thirteen different demographics selected from seven continents.
Next, we attempt to unfold the variance in the detection of biases by two
different knowledge graph embedding algorithms - TransE and ComplEx. We conduct
our extensive experiments on a large number of occupations sampled from the
thirteen demographics with respect to the sensitive attribute, i.e., gender.
Our results show that the inherent data bias that persists in KG can be altered
by specific algorithm bias as incorporated by KG embedding learning algorithms.
Further, we show that the choice of the state-of-the-art KG embedding algorithm
has a strong impact on the ranking of biased occupations irrespective of
gender. We observe that the similarity of the biased occupations across
demographics is minimal which reflects the socio-cultural differences around
the globe. We believe that this full-scale audit of the bias measurement
pipeline will raise awareness among the community while deriving insights
related to design choices of data and algorithms both and refrain from the
popular dogma of ``one-size-fits-all''.
- Abstract(参考訳): 各種自動化AIシステムやアプリケーションに知識グラフ(KG)が広く使用されているため、情報検索アルゴリズムが社会的バイアスから解放されることが極めて重要である。
以前の研究では、kgで持続するバイアスを描写し、バイアスを測定するためにいくつかの指標を採用した。
しかし、このような研究はバイアス測定の感度の体系的な探索や、様々なデータソース、あるいは使われる埋め込みアルゴリズムを欠いている。
この研究のギャップに対処するために,本研究では,知識グラフ上のバイアス測定の全体論的解析を提案する。
まず,7大陸から選択された13の異なる人口層を対象に,ウィキデータに現れるデータバイアスを明らかにする。
次に、2つの異なる知識グラフ埋め込みアルゴリズム(transeとcomplex)によるバイアス検出のばらつきを広めようとする。
我々は,感受性特性,すなわち性別に関して,13人層から採取した多数の職業について広範な実験を行った。
その結果,kgに持続する固有データバイアスは,kg埋め込み学習アルゴリズムに組み込まれている特定のアルゴリズムバイアスによって変化できることがわかった。
さらに,現在最先端のKG埋め込みアルゴリズムの選択は,性別に関わらず,偏りのある職業のランク付けに強い影響を与えることを示す。
人口統計学における偏りのある職業の類似性は最小限であり、世界中の社会文化の違いを反映している。
偏差測定パイプラインの完全な監査は、コミュニティ間の認識を高めつつ、データとアルゴリズムの設計選択に関する洞察を導き、‘一大フィット’という人気のドグマを無視するものだと考えています。
関連論文リスト
- Outlier Detection Bias Busted: Understanding Sources of Algorithmic Bias through Data-centric Factors [28.869581543676947]
unsupervised outlier detection (OD) は、金融、セキュリティ等に多くの応用がある。
この研究は、データ中心の異なる要因の下で検出モデルを監査することで、ODの不公平な源泉に光を当てることを目的としている。
この研究に基づくODアルゴリズムは、すべて公正な落とし穴を示すが、どの種類のデータバイアスがより影響を受けやすいかは異なる。
論文 参考訳(メタデータ) (2024-08-24T20:35:32Z) - Fairness and Bias in Truth Discovery Algorithms: An Experimental
Analysis [7.575734557466221]
群衆労働者は信頼できないラベルを提供することもある。
真理探索(TD)アルゴリズムを用いて、競合するワーカー応答からコンセンサスラベルを決定する。
我々はTDアルゴリズムのバイアスと公平性を体系的に研究する。
論文 参考訳(メタデータ) (2023-04-25T04:56:35Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition [1.5340540198612824]
2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
論文 参考訳(メタデータ) (2022-05-20T09:40:42Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Towards Automatic Bias Detection in Knowledge Graphs [5.402498799294428]
本稿では,数値バイアス指標に基づいて,知識グラフの埋め込みにおけるバイアスを識別するフレームワークについて述べる。
本稿では,職業予測の課題に対する3つの異なるバイアス尺度を用いて,この枠組みを説明する。
バイアスを負った関係は、その後の偏見を判断するために意思決定者に渡される。
論文 参考訳(メタデータ) (2021-09-19T03:58:25Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - Adversarial Learning for Debiasing Knowledge Graph Embeddings [9.53284633479507]
社会的・文化的偏見は、異なる集団や少数民族に有害な結果をもたらす可能性がある。
本稿では,知識グラフ(KG)の埋め込みにおいて,そのようなバイアスを識別し緩和することを目的とする。
我々は、FAN(Filtering Adversarial Network)と呼ばれる、KG埋め込みから機密属性情報をフィルタリングする新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2020-06-29T18:36:15Z) - REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets [64.76453161039973]
REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
論文 参考訳(メタデータ) (2020-04-16T23:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。