論文の概要: Social Biases in Knowledge Representations of Wikidata separates Global North from Global South
- arxiv url: http://arxiv.org/abs/2505.02352v1
- Date: Mon, 05 May 2025 04:21:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.55669
- Title: Social Biases in Knowledge Representations of Wikidata separates Global North from Global South
- Title(参考訳): Wikidataの知識表現における社会的バイアスは、グローバル・ノースとグローバル・サウスを分離する
- Authors: Paramita Das, Sai Keerthana Karnam, Aditya Soni, Animesh Mukherjee,
- Abstract要約: リンク予測(LP)は知識グラフの不完全性の問題に対処するため、知識グラフにとって重要な下流タスクである。
これまでの研究では、しばしば(半)自動的な方法で作成された知識グラフは、社会的バイアスのないものではないことが示されている。
これらのバイアスは下流の応用に有害な影響を及ぼし、特に少数派に対する不公平な行動を引き起こす。
- 参考スコア(独自算出の注目度): 4.427603894929721
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge Graphs have become increasingly popular due to their wide usage in various downstream applications, including information retrieval, chatbot development, language model construction, and many others. Link prediction (LP) is a crucial downstream task for knowledge graphs, as it helps to address the problem of the incompleteness of the knowledge graphs. However, previous research has shown that knowledge graphs, often created in a (semi) automatic manner, are not free from social biases. These biases can have harmful effects on downstream applications, especially by leading to unfair behavior toward minority groups. To understand this issue in detail, we develop a framework -- AuditLP -- deploying fairness metrics to identify biased outcomes in LP, specifically how occupations are classified as either male or female-dominated based on gender as a sensitive attribute. We have experimented with the sensitive attribute of age and observed that occupations are categorized as young-biased, old-biased, and age-neutral. We conduct our experiments on a large number of knowledge triples that belong to 21 different geographies extracted from the open-sourced knowledge graph, Wikidata. Our study shows that the variance in the biased outcomes across geographies neatly mirrors the socio-economic and cultural division of the world, resulting in a transparent partition of the Global North from the Global South.
- Abstract(参考訳): 知識グラフは、情報検索、チャットボット開発、言語モデル構築など、さまざまな下流アプリケーションで広く使われていることから、ますます人気が高まっている。
リンク予測(LP)は知識グラフの不完全性の問題に対処するため、知識グラフにとって重要な下流タスクである。
しかし、以前の研究では、しばしば(半)自動的な方法で作成された知識グラフは、社会的偏見から解放されることが示されている。
これらのバイアスは下流の応用に有害な影響を及ぼし、特に少数派に対する不公平な行動を引き起こす。
この問題を詳細に理解するために、我々は、LPにおける偏見のある結果を特定するための公正度指標をデプロイするフレームワーク -- AuditLP -- を開発する。
我々は、年齢の敏感な属性を実験し、職業が若年バイアス、老年バイアス、年齢中立に分類されることを観察した。
我々は、オープンソースの知識グラフWikidataから抽出された21の異なる地理学に属する、多数の知識トリプルについて実験を行った。
我々の研究は、地理的に偏った結果のばらつきが世界の社会経済と文化の分裂をうまく反映していることを示し、グローバル・ノースをグローバル・サウスから透明に分割する結果となった。
関連論文リスト
- Detecting and Mitigating Bias in LLMs through Knowledge Graph-Augmented Training [2.8402080392117757]
本研究では,大規模言語モデルにおけるバイアスを軽減する新しい手法として,知識グラフ強化訓練(KGAT)について検討する。
バイアスアセスメントのためのパブリックデータセットには、Gender Shades、Bias in Bios、FairFaceがある。
また、バイアス付き関連を補正するためのターゲット緩和戦略も実施し、バイアス付きアウトプットの大幅な低下とバイアス指標の改善につながった。
論文 参考訳(メタデータ) (2025-04-01T00:27:50Z) - Who Does the Giant Number Pile Like Best: Analyzing Fairness in Hiring Contexts [5.111540255111445]
レースベースの違いは生成したサマリーの約10%に現れ、ジェンダーベースの違いは1%に過ぎなかった。
検索モデルは非デデマグラフィー的変化に匹敵する感度を示し、公平性問題は一般的な脆性問題に起因する可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-01-08T07:28:10Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Diversity matters: Robustness of bias measurements in Wikidata [4.950095974653716]
7大陸から選択された13の異なる人口層に対して、ウィキデータに表されるデータのバイアスを明らかにする。
我々は、13の人口層から採取された多数の職業について、センシティブな属性、すなわち性別に関する広範な実験を行う。
我々は,現在最先端のKG埋め込みアルゴリズムの選択が,性別に関わらず,偏りのある職業のランク付けに強い影響を与えることを示した。
論文 参考訳(メタデータ) (2023-02-27T18:38:10Z) - Mitigating Relational Bias on Knowledge Graphs [51.346018842327865]
マルチホップバイアスを同時に緩和し,知識グラフにおけるエンティティとリレーションの近接情報を保存するフレームワークであるFair-KGNNを提案する。
ジェンダー占有とナショナリティ・サリーバイアスを軽減するために,2つの最先端KGNNモデル(RCCNとCompGCN)を組み込んだFair-KGNNの2例を開発した。
論文 参考訳(メタデータ) (2022-11-26T05:55:34Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets [64.76453161039973]
REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
論文 参考訳(メタデータ) (2020-04-16T23:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。