論文の概要: Measuring Political Bias in Large Language Models: What Is Said and How It Is Said
- arxiv url: http://arxiv.org/abs/2403.18932v1
- Date: Wed, 27 Mar 2024 18:22:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-03-29 18:11:43.876090
- Title: Measuring Political Bias in Large Language Models: What Is Said and How It Is Said
- Title(参考訳): 大規模言語モデルにおける政治的バイアスの測定:何が語られるか、どのように語られるか
- Authors: Yejin Bang, Delong Chen, Nayeon Lee, Pascale Fung,
- Abstract要約: 政治問題に関するコンテンツの内容とスタイルの両方を分析し,LLMにおける政治的偏見を測定することを提案する。
提案尺度は, 生殖権や気候変動などの異なる政治課題を, それらのバイアスの内容(世代的物質)と様式(語彙的極性)の両方で考察する。
- 参考スコア(独自算出の注目度): 46.1845409187583
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose to measure political bias in LLMs by analyzing both the content and style of their generated content regarding political issues. Existing benchmarks and measures focus on gender and racial biases. However, political bias exists in LLMs and can lead to polarization and other harms in downstream applications. In order to provide transparency to users, we advocate that there should be fine-grained and explainable measures of political biases generated by LLMs. Our proposed measure looks at different political issues such as reproductive rights and climate change, at both the content (the substance of the generation) and the style (the lexical polarity) of such bias. We measured the political bias in eleven open-sourced LLMs and showed that our proposed framework is easily scalable to other topics and is explainable.
- Abstract(参考訳): 政治問題に関するコンテンツの内容とスタイルの両方を分析し,LLMにおける政治的偏見を測定することを提案する。
既存のベンチマークと指標は、性別と人種の偏見に焦点を当てている。
しかし、政治的バイアスはLLMに存在し、下流のアプリケーションでは分極やその他の害をもたらす可能性がある。
ユーザに対して透明性を提供するためには,LLMが生み出す政治的偏見の細粒化と説明可能な尺度が必要である,と我々は主張する。
提案尺度は, 生殖権や気候変動などの異なる政治課題を, それらのバイアスの内容(世代的物質)と様式(語彙的極性)の両方で考察する。
我々は11のオープンソースLDMの政治的バイアスを測定し、提案するフレームワークが他のトピックに容易にスケーラブルであり、説明可能であることを示した。
関連論文リスト
- Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models [52.00270888041742]
我々は、中立なイベント記述と異なる国からの視点を対比した新しいデータセットを導入する。
以上の結果から,特定の民族的物語のモデルが好まれる,重要な地政学的偏見がみられた。
単純なデバイアスのプロンプトはこれらのバイアスを減らすのに限られた効果があった。
論文 参考訳(メタデータ) (2025-06-07T10:45:17Z) - Analyzing Political Bias in LLMs via Target-Oriented Sentiment Classification [4.352835414206441]
LLMによって符号化された政治的バイアスは下流のアプリケーションに有害な影響を及ぼす可能性がある。
我々は,LLMの感情予測が同一文の目的語と異なるという観察を活用する新しいアプローチを提案する。
我々は、人口統計学的および政治的に多様な政治家名を450の政治文に挿入し、6つの広く話される言語で7つのモデルを用いて目標志向の感情を予測する。
論文 参考訳(メタデータ) (2025-05-26T10:01:24Z) - Large Means Left: Political Bias in Large Language Models Increases with Their Number of Parameters [0.571853823214391]
大規模言語モデル(LLM)は、主に多くの人が様々なトピックの主要な情報源として使っている。
LLMは、しばしば事実の誤りを犯したり、データ(幻覚)を作成したり、バイアスを提示したり、ユーザーが誤った情報に晒したり、意見に影響を与えたりする。
我々は、Wale-O-Matのスコアを用いて、ドイツ連邦議会の最近の投票の文脈において、人気のあるLLMの政治的バイアスを定量化する。
論文 参考訳(メタデータ) (2025-05-07T13:18:41Z) - Large Language Models are often politically extreme, usually ideologically inconsistent, and persuasive even in informational contexts [1.9782163071901029]
大規模言語モデル(LLM)は、人々が情報を取得し、世界と対話する方法を根本的に変える、変革的な技術である。
LLMの全体的な党派的嗜好は、特定のトピックに対する極端な見解の相違による純結果であることを示す。
ランダム化実験では、LLMは情報検索の文脈においても、自らの好みを政治的説得力に広めることができることを示す。
論文 参考訳(メタデータ) (2025-05-07T06:53:59Z) - Through the LLM Looking Glass: A Socratic Self-Assessment of Donkeys, Elephants, and Markets [42.55423041662188]
この研究は、外部解釈に頼るのではなく、モデルのバイアスを直接測定することを目的としている。
我々の結果は、あらゆるモデルで共和党の立場よりも民主党を一貫して好んでいることを示している。
偏見は西洋のLLMによって異なるが、中国で開発されたものは社会主義に強く依存している。
論文 参考訳(メタデータ) (2025-03-20T19:40:40Z) - Unpacking Political Bias in Large Language Models: A Cross-Model Comparison on U.S. Politics [6.253258189994455]
人間社会における普遍的な現象としての政治的偏見は、大規模言語モデルに移される可能性がある。
政治バイアスは、モデルスケールとリリース日とともに進化し、LLMの地域要因にも影響される。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は,大規模言語モデルが特定のグループに対する暗黙の偏見を厳格に評価する。
我々は,4つの共通のバイアス型の評価データセットを構築した3つのアタックアプローチ,すなわちDguise,Deception,Teachingを提案する。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - The Political Preferences of LLMs [0.0]
私は、テストテイカーの政治的嗜好を特定するために、11の政治的指向テストを実行し、24の最先端の会話型LLMを実行します。
ほとんどの会話型LLMは、ほとんどの政治的テスト機器によって、中心の視点の好みを示すものとして認識される応答を生成する。
LLMは、スーパービジョンファインチューニングを通じて、政治スペクトルの特定の場所に向けて操れることを実証します。
論文 参考訳(メタデータ) (2024-02-02T02:43:10Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Diverse Perspectives Can Mitigate Political Bias in Crowdsourced Content
Moderation [5.470971742987594]
ソーシャルメディア企業は、プラットフォーム上の政治コンテンツを取り巻くコンテンツモデレーションポリシーの定義と強化に不満を抱いている。
このタスクにおいて、人間のラベルがどの程度うまく機能するか、あるいは、バイアスがこのプロセスに影響を及ぼすかどうかは不明だ。
集団労働者による政治内容の特定の実現可能性と実践性を実験的に評価した。
論文 参考訳(メタデータ) (2023-05-23T20:10:43Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - Millions of Co-purchases and Reviews Reveal the Spread of Polarization
and Lifestyle Politics across Online Markets [68.8204255655161]
多様な市場において,異なる製品セグメントにおける分極とライフスタイル政治の広範性について検討する。
政治的に関連性があり、整列し、偏極化した製品カテゴリーを見つけるために、218万の市場組織間で236万の関連をサンプリングした。
文化製品は他のどの部分よりも4倍偏光度が高い。
論文 参考訳(メタデータ) (2022-01-17T18:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。