論文の概要: Yet another algorithmic bias: A Discursive Analysis of Large Language Models Reinforcing Dominant Discourses on Gender and Race
- arxiv url: http://arxiv.org/abs/2508.10304v1
- Date: Thu, 14 Aug 2025 03:22:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.166934
- Title: Yet another algorithmic bias: A Discursive Analysis of Large Language Models Reinforcing Dominant Discourses on Gender and Race
- Title(参考訳): また別のアルゴリズムバイアス:ジェンダーと人種に関する支配的言説を補強する大規模言語モデルの離散的分析
- Authors: Gustavo Bonil, Simone Hashiguti, Jhessica Silva, João Gondim, Helena Maia, Nádia Silva, Helio Pedrini, Sandra Avila,
- Abstract要約: LLM(Large Language Models)は、様々な文脈において広く使われてきた言語モデルである。
より洗練されたバージョンへと進化するにつれて、差別や人種化といったバイアスを再現するかどうかを評価することが不可欠である。
本研究では,このような手法を補完する定性的・非帰的枠組みを提案する。
- 参考スコア(独自算出の注目度): 4.10874761487336
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the advance of Artificial Intelligence (AI), Large Language Models (LLMs) have gained prominence and been applied in diverse contexts. As they evolve into more sophisticated versions, it is essential to assess whether they reproduce biases, such as discrimination and racialization, while maintaining hegemonic discourses. Current bias detection approaches rely mostly on quantitative, automated methods, which often overlook the nuanced ways in which biases emerge in natural language. This study proposes a qualitative, discursive framework to complement such methods. Through manual analysis of LLM-generated short stories featuring Black and white women, we investigate gender and racial biases. We contend that qualitative methods such as the one proposed here are fundamental to help both developers and users identify the precise ways in which biases manifest in LLM outputs, thus enabling better conditions to mitigate them. Results show that Black women are portrayed as tied to ancestry and resistance, while white women appear in self-discovery processes. These patterns reflect how language models replicate crystalized discursive representations, reinforcing essentialization and a sense of social immobility. When prompted to correct biases, models offered superficial revisions that maintained problematic meanings, revealing limitations in fostering inclusive narratives. Our results demonstrate the ideological functioning of algorithms and have significant implications for the ethical use and development of AI. The study reinforces the need for critical, interdisciplinary approaches to AI design and deployment, addressing how LLM-generated discourses reflect and perpetuate inequalities.
- Abstract(参考訳): 人工知能(AI)の進歩により、Large Language Models(LLM)は有名になり、様々な文脈で応用されている。
より洗練されたバージョンへと進化するにつれて、ヘゲモニックな言説を維持しながら、差別や人種化などの偏見を再現するかどうかを評価することが不可欠である。
現在のバイアス検出アプローチは、主に定量的で自動化された手法に依存しており、しばしば自然言語でバイアスが現れる微妙な方法を見落としている。
本研究では,このような手法を補完する定性的・非帰的枠組みを提案する。
黒人女性と白人女性を対象とするLPM生成短編小説のマニュアル分析を通じて,性別と人種的偏見について検討した。
ここで提案したような定性的な手法は、開発者とユーザがLLM出力にバイアスが現れる正確な方法を特定するのに役立つため、より良い条件でそれらを緩和するのに役立つ、と我々は主張する。
その結果、黒人女性は祖先と抵抗に結びついていると表現され、白人女性は自己発見の過程に現れることがわかった。
これらのパターンは、言語モデルが結晶化された非帰的表現をいかに再現するかを反映し、本質化の強化と社会的不動感を反映している。
バイアスを正すよう促されたとき、モデルは問題のある意味を維持する表面的な修正を提供し、包括的物語を育むための限界を明らかにした。
本研究は,アルゴリズムのイデオロギー的機能を示すとともに,AIの倫理的利用と開発に重要な意味を持つものである。
この研究は、LLM生成の談話がどのように不平等を反映し永続するかに対処するため、AI設計と展開に対する批判的で学際的なアプローチの必要性を強化している。
関連論文リスト
- Profiling Bias in LLMs: Stereotype Dimensions in Contextual Word Embeddings [1.5379084885764847]
大規模言語モデル(LLM)は、人工知能(AI)の現在の成功の基礎である。
リスクを効果的に伝達し、緩和努力を促進するために、これらのモデルは識別特性を適切に直感的に記述する必要がある。
社会心理学研究の辞書に基づくステレオタイプ次元に関するバイアスプロファイルを提案する。
論文 参考訳(メタデータ) (2024-11-25T16:14:45Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs [58.27353205269664]
社会的バイアスは、Large Language Model(LLM)生成コンテンツにおいて言語エージェンシーに現れる。
LLMのバイアスを包括的に評価するLanguage Agency Bias Evaluationベンチマークを導入する。
LABEを用いて,近年の3つのLLM(ChatGPT,Llama3,Mistral)における言語エージェントの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Sociodemographic Prompting is Not Yet an Effective Approach for Simulating Subjective Judgments with LLMs [13.744746481528711]
大規模言語モデル(LLM)は、様々な文脈で人間の反応をシミュレートするために広く使われている。
我々は,2つの主観的判断課題(丁寧さと攻撃性)において,人口差を理解する能力について,9つの人気のLCMを評価した。
ゼロショット設定では、両方のタスクのほとんどのモデルの予測は、アジアやブラックの参加者よりもホワイトの参加者のラベルとより密接に一致している。
論文 参考訳(メタデータ) (2023-11-16T10:02:24Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。