論文の概要: Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies
- arxiv url: http://arxiv.org/abs/2311.09687v1
- Date: Thu, 16 Nov 2023 08:57:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 15:33:52.495915
- Title: Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies
- Title(参考訳): 言語モデルに基づく政治バイアスの導入は議論に対する党派的な反応を期待する
- Authors: Zihao He, Siyi Guo, Ashwin Rao, Kristina Lerman
- Abstract要約: 本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
- 参考スコア(独自算出の注目度): 5.958974943807783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media platforms are rife with politically charged discussions.
Therefore, accurately deciphering and predicting partisan biases using Large
Language Models (LLMs) is increasingly critical. In this study, we address the
challenge of understanding political bias in digitized discourse using LLMs.
While traditional approaches often rely on finetuning separate models for each
political faction, our work innovates by employing a singular,
instruction-tuned LLM to reflect a spectrum of political ideologies. We present
a comprehensive analytical framework, consisting of Partisan Bias Divergence
Assessment and Partisan Class Tendency Prediction, to evaluate the model's
alignment with real-world political ideologies in terms of stances, emotions,
and moral foundations. Our findings reveal the model's effectiveness in
capturing emotional and moral nuances, albeit with some challenges in stance
detection, highlighting the intricacies and potential for refinement in NLP
tools for politically sensitive contexts. This research contributes
significantly to the field by demonstrating the feasibility and importance of
nuanced political understanding in LLMs, particularly for applications
requiring acute awareness of political bias.
- Abstract(参考訳): ソーシャルメディアプラットフォームは政治的に告発された議論に苦しめられている。
そのため,大規模言語モデル(llm)を用いたパルチザンバイアスの解読と予測がますます重要になっている。
本研究では,LLMを用いたデジタル談話における政治的偏見の理解という課題に対処する。
従来のアプローチは、それぞれの政治派閥ごとに微調整されたモデルに頼っていることが多いが、我々の研究は、政治的イデオロギーのスペクトルを反映するために、独特な指導による LLM を用いて革新する。
本稿では,実世界の政治イデオロギーと,態度・感情・モラル基盤の観点からモデルの連携を評価するために,偏差偏差評価と偏差傾向予測からなる包括的分析枠組みを提案する。
本研究は,感情的・道徳的ニュアンスを捉える上でのモデルの有効性を明らかにするとともに,政治的にセンシティブな文脈におけるNLPツールの複雑さと改善の可能性を強調した。
この研究は、特に政治的偏見の急激な認識を必要とするアプリケーションにおいて、LLMにおけるニュアンスな政治的理解の実現可能性と重要性を示すことによって、この分野に大きく貢献する。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Quantitative Analysis of Forecasting Models:In the Aspect of Online
Political Bias [0.0]
ソーシャルメディア投稿を5つの異なる政治傾向カテゴリーに分類する手法を提案する。
我々のアプローチは、政治的イデオロギーの異なる2つのソーシャルメディアデータセット上で、既存の時系列予測モデルを活用することである。
論文 参考訳(メタデータ) (2023-09-11T16:17:24Z) - Examining Political Rhetoric with Epistemic Stance Detection [13.829628375546568]
我々は、より複雑な最先端のモデリングよりも優れたマルチソース姿勢予測のためのシンプルなRoBERTaベースのモデルを開発した。
我々は、米国の政治意見書のマスマーケットマニフェストコーパスを大規模に分析することで、その新しい政治科学への応用を実証する。
論文 参考訳(メタデータ) (2022-12-29T23:47:14Z) - PAR: Political Actor Representation Learning with Social Context and
Expert Knowledge [45.215862050840116]
我々は,textbfPolitical textbfActor textbfRepresentation学習フレームワークであるtextbfPARを提案する。
我々は,社会的文脈情報を活用するために,議員に関する事実文を検索し,抽出する。
次に、社会的文脈を取り入れた異種情報ネットワークを構築し、リレーショナルグラフニューラルネットワークを用いて立法者表現を学習する。
論文 参考訳(メタデータ) (2022-10-15T19:28:06Z) - Political Ideology and Polarization of Policy Positions: A
Multi-dimensional Approach [19.435030285532854]
我々は,政策のイデオロギーを,姿勢とイデオロギーの曖昧な共存を区別して検討する。
政治学の理論的な記述と相まって、イデオロギーを多次元的構成として扱う。
この枠組みは, 時間的・多面的なイデオロギー距離の測定値である分極の定量的解析を可能にすることを示す。
論文 参考訳(メタデータ) (2021-06-28T04:03:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。