論文の概要: "Whose Side Are You On?" Estimating Ideology of Political and News Content Using Large Language Models and Few-shot Demonstration Selection
- arxiv url: http://arxiv.org/abs/2503.20797v1
- Date: Sun, 23 Mar 2025 02:32:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:54:49.193981
- Title: "Whose Side Are You On?" Estimating Ideology of Political and News Content Using Large Language Models and Few-shot Demonstration Selection
- Title(参考訳): 「あなたは誰の味方ですか?」大言語モデルによる政治・ニュースコンテンツのイデオロギーの推測とFew-shot Demonstration Selection
- Authors: Muhammad Haroon, Magdalena Wojcieszak, Anshuman Chhabra,
- Abstract要約: 既存のイデオロギーを分類するアプローチは、大規模なデータセットのラベル付けを必要とするため、進化するイデオロギーの文脈に適応できないという点で制限されている。
本稿では、オンラインコンテンツの政治的イデオロギーを、文脈内学習を通じて、米国政治スペクトルの文脈で分類する大規模言語モデルの可能性について検討する。
- 参考スコア(独自算出の注目度): 5.277598111323805
- License:
- Abstract: The rapid growth of social media platforms has led to concerns about radicalization, filter bubbles, and content bias. Existing approaches to classifying ideology are limited in that they require extensive human effort, the labeling of large datasets, and are not able to adapt to evolving ideological contexts. This paper explores the potential of Large Language Models (LLMs) for classifying the political ideology of online content in the context of the two-party US political spectrum through in-context learning (ICL). Our extensive experiments involving demonstration selection in label-balanced fashion, conducted on three datasets comprising news articles and YouTube videos, reveal that our approach significantly outperforms zero-shot and traditional supervised methods. Additionally, we evaluate the influence of metadata (e.g., content source and descriptions) on ideological classification and discuss its implications. Finally, we show how providing the source for political and non-political content influences the LLM's classification.
- Abstract(参考訳): ソーシャルメディアプラットフォームの急速な成長は、過激化、フィルターバブル、コンテンツバイアスに関する懸念につながっている。
既存のイデオロギーを分類するアプローチは、大規模なデータセットのラベル付けを必要とするため、進化するイデオロギーの文脈に適応できないという点で制限されている。
本稿では,オンラインコンテンツの政治的イデオロギーを,テキスト内学習(ICL)による2政党の政治スペクトルの文脈で分類する上で,LLM(Large Language Models)の可能性について検討する。
本稿では,ニュース記事とYouTubeビデオを含む3つのデータセットを用いてラベルバランスの取れた実験を行い,ゼロショットと従来の教師付き手法を著しく上回る結果を得た。
さらに、メタデータ(例えば、コンテンツソース、記述)がイデオロギーの分類に与える影響を評価し、その意味について論じる。
最後に、政治的・非政治的コンテンツソースの提供がLLMの分類にどのように影響するかを示す。
関連論文リスト
- Navigating Nuance: In Quest for Political Truth [1.4127714091330967]
メディアバイアス識別ベンチマーク(MBIB)を用いたLlama-3(70B)言語モデルの性能評価を行った。
本研究は、政治的偏見を検出することの課題と、将来のモデルを強化するための伝達学習手法の可能性を強調した。
論文 参考訳(メタデータ) (2025-01-01T09:24:47Z) - Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Political Leaning Inference through Plurinational Scenarios [4.899818550820576]
この研究は、スペインにおける3つの多様な地域(バスク州、カタルーニャ州、ガリシア州)に焦点を当て、多党の分類の様々な方法を探究する。
我々は、リツイートから得られた教師なしユーザ表現と、その後の政治的傾き検出に使用される2段階の手法を用いる。
論文 参考訳(メタデータ) (2024-06-12T07:42:12Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Modeling Political Orientation of Social Media Posts: An Extended
Analysis [0.0]
オンラインソーシャルメディア上で政治的分極を特徴付ける機械学習モデルを開発することは、大きな課題である。
これらの課題は主に、注釈付きデータの欠如、ソーシャルメディアデータセットにおけるノイズの存在、膨大な量のデータなど、さまざまな要因に起因している。
本稿では、ソーシャルメディア投稿のラベル付けに、メディアバイアスと投稿コンテンツを活用する2つの方法を紹介する。
ソーシャルメディア投稿の政治的指向を予測することで,現在の機械学習モデルの性能向上を実証する。
論文 参考訳(メタデータ) (2023-11-21T03:34:20Z) - P^3SUM: Preserving Author's Perspective in News Summarization with Diffusion Language Models [57.571395694391654]
既存のアプローチは、要約の50%以上で、ニュース記事の政治的意見やスタンスを変えている。
政治的視点分類器によって制御される拡散モデルに基づく要約手法であるP3SUMを提案する。
3つのニュース要約データセットの実験により、P3SUMは最先端の要約システムより優れていることが示された。
論文 参考訳(メタデータ) (2023-11-16T10:14:28Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Learning Ideological Embeddings from Information Cascades [11.898833102736255]
多次元イデオロギー空間における各ユーザのイデオロギー的傾きを学習するためのモデルを提案する。
本モデルは,多次元イデオロギー空間におけるソーシャルメディア利用者の政治的姿勢を学習することができる。
論文 参考訳(メタデータ) (2021-09-28T09:58:02Z) - Reaching the bubble may not be enough: news media role in online
political polarization [58.720142291102135]
分極を減らす方法は、異なる政治的指向を持つ個人に党間のニュースを分配することである。
本研究は、ブラジルとカナダにおける全国選挙の文脈において、これが成立するかどうかを考察する。
論文 参考訳(メタデータ) (2021-09-18T11:34:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。