論文の概要: A Systematic Analysis of Biases in Large Language Models
- arxiv url: http://arxiv.org/abs/2512.15792v1
- Date: Tue, 16 Dec 2025 03:38:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.720966
- Title: A Systematic Analysis of Biases in Large Language Models
- Title(参考訳): 大規模言語モデルにおけるビアーゼの体系的解析
- Authors: Xulang Zhang, Rui Mao, Erik Cambria,
- Abstract要約: 大規模言語モデル(LLM)は、情報を取得し、人間の意思決定を支援するために、急速に必要不可欠なツールになりつつある。
本研究では、政治、イデオロギー、同盟、言語、ジェンダーの次元にまたがるバイアスと傾向について検討する。
その結果, LLMは中性であり, 公平である一方で, 異なるタイプの偏見や親和性を示すことが示唆された。
- 参考スコア(独自算出の注目度): 40.23320093091831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have rapidly become indispensable tools for acquiring information and supporting human decision-making. However, ensuring that these models uphold fairness across varied contexts is critical to their safe and responsible deployment. In this study, we undertake a comprehensive examination of four widely adopted LLMs, probing their underlying biases and inclinations across the dimensions of politics, ideology, alliance, language, and gender. Through a series of carefully designed experiments, we investigate their political neutrality using news summarization, ideological biases through news stance classification, tendencies toward specific geopolitical alliances via United Nations voting patterns, language bias in the context of multilingual story completion, and gender-related affinities as revealed by responses to the World Values Survey. Results indicate that while the LLMs are aligned to be neutral and impartial, they still show biases and affinities of different types.
- Abstract(参考訳): 大規模言語モデル(LLM)は、情報を取得し、人間の意思決定を支援するために、急速に必要不可欠なツールになりつつある。
しかしながら、これらのモデルがさまざまなコンテキストにまたがって公正性を維持することが、安全かつ責任のあるデプロイメントにとって重要である。
本研究では、政治、イデオロギー、同盟、言語、ジェンダーの側面に根ざした偏見と傾向を考察し、広く採用されている4つのLCMの総合的な検討を行った。
本稿では,ニュース要約,ニューススタンス分類によるイデオロギー的バイアス,国連の投票パターンによる特定の地政学的アライアンスへの傾向,多言語的ストーリー完了の文脈における言語バイアス,世界価値調査への回答によるジェンダー関連親和性などを用いて,その政治的中立性について検討する。
その結果, LLMは中性であり, 公平である一方で, 異なるタイプの偏見や親和性を示すことが示唆された。
関連論文リスト
- Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models [52.00270888041742]
我々は、中立なイベント記述と異なる国からの視点を対比した新しいデータセットを導入する。
以上の結果から,特定の民族的物語のモデルが好まれる,重要な地政学的偏見がみられた。
単純なデバイアスのプロンプトはこれらのバイアスを減らすのに限られた効果があった。
論文 参考訳(メタデータ) (2025-06-07T10:45:17Z) - Mapping Geopolitical Bias in 11 Large Language Models: A Bilingual, Dual-Framing Analysis of U.S.-China Tensions [2.8202443616982884]
本研究は,11大言語モデル(LLM)における地政学的バイアスを系統的に解析する。
モデル出力のイデオロギー的傾きを検出するために,19,712個のプロンプトを作成した。
米国をベースとしたモデルは、主に米国支持の姿勢を好んでおり、一方中国のモデルでは、中国支持の偏見が顕著であった。
論文 参考訳(メタデータ) (2025-03-31T03:38:17Z) - Echoes of Power: Investigating Geopolitical Bias in US and China Large Language Models [2.1028463367241033]
米国と中国の大規模言語モデル(LLM)における地政学的バイアスについて検討する。
両モデルに顕著なバイアスがみられ,イデオロギー的な視点と文化的影響が反映された。
この研究は、LLMが公的な談話を形成する可能性を強調し、AI生成コンテンツを批判的に評価することの重要性を強調している。
論文 参考訳(メタデータ) (2025-03-20T19:53:10Z) - Beyond Partisan Leaning: A Comparative Analysis of Political Bias in Large Language Models [6.549047699071195]
本研究では、大規模言語モデルにおける政治的行動を評価するために、ペルソナフリーでトピック固有のアプローチを採用する。
米国、ヨーロッパ、中国、中東で開発された43の大規模言語モデルからの反応を分析した。
発見は、ほとんどのモデルが中心左あるいは左イデオロギー的にリーンであり、非党派的エンゲージメントパターンが異なることを示している。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。