論文の概要: Exploiting contextual information to improve stance detection in informal political discourse with LLMs
- arxiv url: http://arxiv.org/abs/2602.04750v1
- Date: Wed, 04 Feb 2026 16:49:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.639468
- Title: Exploiting contextual information to improve stance detection in informal political discourse with LLMs
- Title(参考訳): LLMと非公式政治談話における文脈情報による姿勢検出の改善
- Authors: Arman Engin Sucu, Yixiang Zhou, Mario A. Nascimento, Tony Mullen,
- Abstract要約: 本研究では,大規模言語モデル(LLM)を用いた非公式オンライン談話における政治的姿勢検出について検討した。
実世界の政治フォーラムデータセットを用いて、ユーザのイデオロギー的傾向、繰り返しトピック、言語パターンを要約した構造化プロファイルを生成する。
文脈的プロンプトは、+17.5%から+38.5%に改善され、従来のアプローチを超越した74%の精度を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study investigates the use of Large Language Models (LLMs) for political stance detection in informal online discourse, where language is often sarcastic, ambiguous, and context-dependent. We explore whether providing contextual information, specifically user profile summaries derived from historical posts, can improve classification accuracy. Using a real-world political forum dataset, we generate structured profiles that summarize users' ideological leaning, recurring topics, and linguistic patterns. We evaluate seven state-of-the-art LLMs across baseline and context-enriched setups through a comprehensive cross-model evaluation. Our findings show that contextual prompts significantly boost accuracy, with improvements ranging from +17.5\% to +38.5\%, achieving up to 74\% accuracy that surpasses previous approaches. We also analyze how profile size and post selection strategies affect performance, showing that strategically chosen political content yields better results than larger, randomly selected contexts. These findings underscore the value of incorporating user-level context to enhance LLM performance in nuanced political classification tasks.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)を用いた非公式オンライン談話における政治的スタンスの検出について検討した。
本研究では,文脈情報の提供,特に歴史的投稿から派生したユーザプロファイル要約が,分類精度を向上するかどうかを考察する。
実世界の政治フォーラムデータセットを用いて、ユーザのイデオロギー的傾向、繰り返しトピック、言語パターンを要約した構造化プロファイルを生成する。
我々は,総合的なクロスモデル評価により,ベースラインとコンテキストに富んだ7つのLLMを評価した。
以上の結果から, 文脈的プロンプトは, +17.5\%から+38.5\%に改善され, 従来のアプローチを超越した74\%の精度が達成された。
また、プロファイルサイズとポスト選択戦略がパフォーマンスにどのように影響するかを分析し、戦略的に選択された政治コンテンツが、より大きな、ランダムに選択されたコンテキストよりも優れた結果をもたらすことを示す。
これらの知見は、政治的分類タスクにおけるLCM性能を高めるために、ユーザレベルのコンテキストを取り入れることの価値を浮き彫りにした。
関連論文リスト
- Beyond Naïve Prompting: Strategies for Improved Zero-shot Context-aided Forecasting with LLMs [57.82819770709032]
大規模言語モデル (LLM) は、na "ive direct prompting" を通じて効果的な文脈支援予測を行うことができる。
ReDPは、明確な推論トレースを抽出することで、解釈可能性を改善し、コンテキスト上でモデルの推論を評価することができる。
CorDPはLLMを活用して、既存の予測をコンテキストで洗練し、現実の予測パイプラインにおける適用性を高める。
IC-DPは、文脈支援予測タスクの歴史的例を即時に組み込むことを提案し、大規模モデルにおいても精度を大幅に向上させる。
論文 参考訳(メタデータ) (2025-08-13T16:02:55Z) - AgoraSpeech: A multi-annotated comprehensive dataset of political discourse through the lens of humans and AI [1.3060410279656598]
アゴラ・スペーチ(AgoraSpeech)は、ギリシャ国民選挙中の2023年の6つの政党による171の政治演説を精巧にキュレートした高品質なデータセットである。
このデータセットには、テキスト分類、トピック識別、感情分析、名前付きエンティティ認識、分極、ポピュリズム検出の6つの自然言語処理(NLP)タスクのためのアノテーション(1段落)が含まれている。
論文 参考訳(メタデータ) (2025-01-09T18:17:59Z) - Context-DPO: Aligning Language Models for Context-Faithfulness [80.62221491884353]
本研究では,大規模言語モデルの文脈信頼度を高めるためのアライメント手法を提案する。
ConFiQAから提供されたコンテキストの質問に対する忠実で頑健な応答を活用することで、Context-DPOは直接の選好最適化を通じてLLMを調整します。
大規模な実験により、私たちのContext-DPOは、一般的なオープンソースモデルで35%から280%の改善を達成し、コンテキスト忠実性を大幅に改善します。
論文 参考訳(メタデータ) (2024-12-18T04:08:18Z) - Con-ReCall: Detecting Pre-training Data in LLMs via Contrastive Decoding [118.75567341513897]
既存のメソッドは通常、ターゲットテキストを分離して分析するか、非メンバーコンテキストでのみ分析する。
Con-ReCallは、メンバと非メンバのコンテキストによって誘導される非対称な分布シフトを利用する新しいアプローチである。
論文 参考訳(メタデータ) (2024-09-05T09:10:38Z) - Examining the Influence of Political Bias on Large Language Model Performance in Stance Classification [5.8229466650067065]
大規模言語モデル(LLM)が、政治的にチャージされたスタンスをより正確に分類する傾向を示すかを検討する。
本研究は,様々な政治的指向性姿勢分類課題において,LSMの性能に統計的に有意な差が認められた。
LLMは、ステートメントが指示されるターゲットにあいまいさがある場合、位置分類の精度が劣る。
論文 参考訳(メタデータ) (2024-07-25T01:11:38Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Reference-less Analysis of Context Specificity in Translation with
Personalised Language Models [3.527589066359829]
本研究は、リッチキャラクタとフィルムアノテーションがいかにパーソナライズ言語モデル(LM)に活用できるかを考察する。
非文脈モデルと比較して、難易度を最大6.5%削減するために、リッチな文脈情報を活用するLMを構築している。
我々の領域における専門翻訳の文脈特化度は、文脈機械翻訳モデルによりよりよく保存できることを示す。
論文 参考訳(メタデータ) (2023-03-29T12:19:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。