論文の概要: Bias is a Math Problem, AI Bias is a Technical Problem: 10-year Literature Review of AI/LLM Bias Research Reveals Narrow [Gender-Centric] Conceptions of 'Bias', and Academia-Industry Gap
- arxiv url: http://arxiv.org/abs/2508.11067v1
- Date: Thu, 14 Aug 2025 20:53:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.670579
- Title: Bias is a Math Problem, AI Bias is a Technical Problem: 10-year Literature Review of AI/LLM Bias Research Reveals Narrow [Gender-Centric] Conceptions of 'Bias', and Academia-Industry Gap
- Title(参考訳): Bias is a Math problem, AI Bias is a Technical problem: 10-year Literature Review of AI/LLM Bias Research Reveals Narrow (Gender-Centric) Conceptions of 'Bias' and Academia-Industry Gap
- Authors: Sourojit Ghosh, Kyra Wilson,
- Abstract要約: ACL、FAccT、NeurIPS、AAAIの4つの主要な会場/組織において、AI/LLMバイアスをカバーする研究のレビューを行う。
189件の論文を通じて、偏見研究のパターンと、それらが一般的に注目する人間のアイデンティティの軸について明らかにした。
今後AI/LLMフェアネス研究への推奨で締めくくります。
- 参考スコア(独自算出の注目度): 0.1534667887016089
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid development of AI tools and implementation of LLMs within downstream tasks has been paralleled by a surge in research exploring how the outputs of such AI/LLM systems embed biases, a research topic which was already being extensively explored before the era of ChatGPT. Given the high volume of research around the biases within the outputs of AI systems and LLMs, it is imperative to conduct systematic literature reviews to document throughlines within such research. In this paper, we conduct such a review of research covering AI/LLM bias in four premier venues/organizations -- *ACL, FAccT, NeurIPS, and AAAI -- published over the past 10 years. Through a coverage of 189 papers, we uncover patterns of bias research and along what axes of human identity they commonly focus. The first emergent pattern within the corpus was that 82% (155/189) papers did not establish a working definition of "bias" for their purposes, opting instead to simply state that biases and stereotypes exist that can have harmful downstream effects while establishing only mathematical and technical definition of bias. 94 of these 155 papers have been published in the past 5 years, after Blodgett et al. (2020)'s literature review with a similar finding about NLP research and recommendation to consider how such researchers should conceptualize bias, going beyond strictly technical definitions. Furthermore, we find that a large majority of papers -- 79.9% or 151/189 papers -- focus on gender bias (mostly, gender and occupation bias) within the outputs of AI systems and LLMs. By demonstrating a strong focus within the field on gender, race/ethnicity (30.2%; 57/189), age (20.6%; 39/189), religion (19.1%; 36/189) and nationality (13.2%; 25/189) bias, we document how researchers adopt a fairly narrow conception of AI bias by overlooking several non-Western communities in fairness research, as we advocate for a stronger coverage of such populations. Finally, we note that while our corpus contains several examples of innovative debiasing methods across the aforementioned aspects of human identity, only 10.6% (20/189) include recommendations for how to implement their findings or contributions in real-world AI systems or design processes. This indicates a concerning academia-industry gap, especially since many of the biases that our corpus contains several successful mitigation methods that still persist within the outputs of AI systems and LLMs commonly used today. We conclude with recommendations towards future AI/LLM fairness research, with stronger focus on diverse marginalized populations.
- Abstract(参考訳): 下流タスクにおけるAIツールの急速な開発とLLMの実装は、そのようなAI/LLMシステムの出力がどのようにバイアスを埋めるかを探求する研究の急増によって、並列化されてきた。
AIシステムとLLMのアウトプット内のバイアスに関する大量の研究を考えると、そのような研究のスルーラインを文書化するために、体系的な文献レビューを実施することが不可欠である。
本稿では,過去10年間に発行された,AI/LLMバイアスに関する4つの主要な会場/組織, *ACL, FAccT, NeurIPS, AAAIにおける研究のレビューを行う。
189件の論文を通じて、偏見研究のパターンと、それらが一般的に注目する人間のアイデンティティの軸について明らかにした。
コーパスにおける最初の創発的なパターンは、82%(155/189)の論文が彼らの目的のために「バイアス」の動作定義を確立せず、単にバイアスとステレオタイプが、数学的および技術的な偏りの定義のみを確立しながら、下流に有害な影響をもたらすことを単に記述することを選んだことである。
これらの155論文のうち94件が過去5年間に出版され、Blodgett et al (2020) によるNLP研究に関する文献レビューと、そのような研究者がどのようにバイアスを概念化し、厳密に技術的な定義を超越するかを検討するための推奨事項が類似している。
さらに、ほとんどの論文(79.9%または151/189の論文)が、AIシステムとLLMのアウトプット内の性別バイアス(主に性別と職業バイアス)に焦点を当てていることがわかりました。
人種・民族性(30.2%; 57/189)、年齢(20.6%; 39/189)、宗教(19.1%; 36/189)、国籍(13.2%; 25/189)の偏見に強い焦点をあてることで、研究者たちがフェアネス研究において、欧米以外のいくつかのコミュニティを見越して、AIバイアスのかなり狭い概念をいかに採用しているかを述べる。
最後に、私たちのコーパスには、上記の人間のアイデンティティの側面にまたがる革新的なデバイアス手法の例がいくつか含まれていますが、実際のAIシステムや設計プロセスにおいて、その発見やコントリビューションの実装方法に関するレコメンデーションは、わずか10.6%(20/189)に過ぎません。
特に、私たちのコーパスには、今日一般的に使用されているAIシステムやLLMの出力に引き続き持続する、いくつかの改善方法を含むバイアスが数多く含まれているため、このことは、アカデミックと産業のギャップを浮き彫りにしている。
今後AI/LLMフェアネス研究への推奨で締めくくります。
関連論文リスト
- Neutralizing the Narrative: AI-Powered Debiasing of Online News Articles [1.340487372205839]
ニュース報道のバイアスは、特に犯罪、政治、社会問題に関して、公衆の認識に大きな影響を及ぼす。
本稿では,高度な大規模言語モデル(LLM),特にGPT-4o,GPT-4o Mini,Gemini Pro,Gemini Flash,Llama 8B,Llama 3Bを活用するAI駆動フレームワークを紹介する。
提案手法は,(1) 偏差検出法,(1) 偏差検出法,(1) 偏差検出法,(2) GPT-4o Mini を用いた反復的偏差検出法,の2段階からなる。
論文 参考訳(メタデータ) (2025-04-04T15:17:53Z) - Fairness and Bias in Multimodal AI: A Survey [0.20971479389679337]
人工知能(AI)システムにおける公平性とバイアスに対処することの重要性は、過度に強調できない。
我々は,LMM(Large Multimodal Model)における,LMM(Large Language Model)とLLM(Large Language Model)の比較的最小の妥当性と偏見について,ギャップを埋める。
我々は、両方のタイプのAIに関連するデータセットとモデルの50例と、それらに影響を与えるバイアスの課題を提示します。
論文 参考訳(メタデータ) (2024-06-27T11:26:17Z) - Measuring and Addressing Indexical Bias in Information Retrieval [69.7897730778898]
PAIRフレームワークは、ランキングドキュメンテーションやIRシステム全体の自動バイアス監査をサポートする。
DUOを導入した後、我々は32kの合成と4.7kの天然文書からなる新しいコーパスで8つのIRシステムの広範な評価を行った。
人間の行動学的研究は、私たちのアプローチを検証し、私たちのバイアスメトリクスが、いつ、どのように指標バイアスが読者の意見を変えるかを予測するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-06T17:42:37Z) - A survey of recent methods for addressing AI fairness and bias in
biomedicine [48.46929081146017]
人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
論文 参考訳(メタデータ) (2024-02-13T06:38:46Z) - Unmasking Bias in AI: A Systematic Review of Bias Detection and Mitigation Strategies in Electronic Health Record-based Models [6.300835344100545]
人工知能を電子健康記録と共に活用することは、医療を改善する変革の可能性を秘めている。
しかし、医療格差を悪化させるAIのバイアスに対処することは見過ごせない。
本研究では,EHRデータを用いたAIモデルにおいて,多様なバイアスを検出・緩和する手法について検討する。
論文 参考訳(メタデータ) (2023-10-30T18:29:15Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Causally Testing Gender Bias in LLMs: A Case Study on Occupational Bias [33.99768156365231]
生成言語モデルにおけるバイアス測定のための因果的定式化を導入する。
我々はOccuGenderというベンチマークを提案し、職業性バイアスを調査するためのバイアス測定手法を提案する。
以上の結果から,これらのモデルでは職業性バイアスがかなり大きいことが示唆された。
論文 参考訳(メタデータ) (2022-12-20T22:41:24Z) - Square One Bias in NLP: Towards a Multi-Dimensional Exploration of the
Research Manifold [88.83876819883653]
我々は、最近のNLP研究論文のマニュアル分類を通して、これが事実であることを示す。
NLP研究は正方形ではなく、精度だけでなく、公平性や解釈可能性にも焦点をあてる。
論文 参考訳(メタデータ) (2022-06-20T13:04:23Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。