論文の概要: Deciphering Political Entity Sentiment in News with Large Language Models: Zero-Shot and Few-Shot Strategies
- arxiv url: http://arxiv.org/abs/2404.04361v1
- Date: Fri, 5 Apr 2024 19:14:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 21:28:04.090203
- Title: Deciphering Political Entity Sentiment in News with Large Language Models: Zero-Shot and Few-Shot Strategies
- Title(参考訳): 大規模言語モデルを用いたニュースにおける政治的実体感の解読--ゼロショットとFewショットの戦略
- Authors: Alapan Kuila, Sudeshna Sarkar,
- Abstract要約: 政治ニュース記事からエンティティ固有の感情を予測する上で,Large Language Models (LLMs) の有効性を検討する。
我々は、文脈内学習において、合理的に強化されたチェーン・オブ・シント(COT)アプローチを採用する。
文脈内での学習はモデル性能を著しく向上させる一方、自己整合性メカニズムは感情予測の一貫性を高める。
- 参考スコア(独自算出の注目度): 0.5459032912385802
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Sentiment analysis plays a pivotal role in understanding public opinion, particularly in the political domain where the portrayal of entities in news articles influences public perception. In this paper, we investigate the effectiveness of Large Language Models (LLMs) in predicting entity-specific sentiment from political news articles. Leveraging zero-shot and few-shot strategies, we explore the capability of LLMs to discern sentiment towards political entities in news content. Employing a chain-of-thought (COT) approach augmented with rationale in few-shot in-context learning, we assess whether this method enhances sentiment prediction accuracy. Our evaluation on sentiment-labeled datasets demonstrates that LLMs, outperform fine-tuned BERT models in capturing entity-specific sentiment. We find that learning in-context significantly improves model performance, while the self-consistency mechanism enhances consistency in sentiment prediction. Despite the promising results, we observe inconsistencies in the effectiveness of the COT prompting method. Overall, our findings underscore the potential of LLMs in entity-centric sentiment analysis within the political news domain and highlight the importance of suitable prompting strategies and model architectures.
- Abstract(参考訳): 感性分析は世論の理解において重要な役割を担い、特にニュース記事の実体の描写が世論に影響を及ぼす政治領域において重要な役割を担っている。
本稿では,大規模言語モデル(LLM)が政治ニュース記事からエンティティ固有の感情を予測する上で,有効性について検討する。
ゼロショットと少数ショットの戦略を活用することで、ニュースコンテンツにおける政治団体に対する感情を識別するLLMの能力を探求する。
本手法が感情予測精度を向上するかどうかを評価するため,思考の連鎖(COT)アプローチを数ショットのインコンテキスト学習において合理的に拡張した手法を用いて評価を行った。
感情ラベル付きデータセットを用いた評価では、LCMは、エンティティ固有の感情を捉える上で、細調整されたBERTモデルよりも優れていることが示されている。
文脈内での学習はモデル性能を著しく向上させる一方、自己整合性メカニズムは感情予測の一貫性を高める。
有望な結果にもかかわらず,COTプロンプト法の有効性の矛盾を観測した。
全体としては、政治ニュース分野におけるエンティティ中心の感情分析におけるLCMの可能性を強調し、適切なプロンプト戦略とモデルアーキテクチャの重要性を強調した。
関連論文リスト
- Analyzing the Impact of Data Selection and Fine-Tuning on Economic and Political Biases in LLMs [1.1704154007740835]
大規模言語モデル(LLM)における微調整とデータ選択が経済的・政治的バイアスに与える影響について検討する。
我々は,LPMを目標イデオロギーと整合させるためのPEFT(Efficient Fine-Tuning)技術を用いて,パラメータの小さなサブセットを修正した。
我々の研究は、AIの倫理的応用に関する対話に寄与し、社会的価値に合わせた方法でAIをデプロイすることの重要性を強調します。
論文 参考訳(メタデータ) (2024-04-10T16:30:09Z) - LLM as a Mastermind: A Survey of Strategic Reasoning with Large Language Models [75.89014602596673]
戦略推論は、戦略を調整しながら、マルチエージェント設定における敵の行動を理解し、予測する必要がある。
大規模言語モデルを用いた戦略的推論に関連するスコープ,アプリケーション,方法論,評価指標について検討する。
戦略的推論を重要な認知能力として重要視し、将来の研究の方向性や潜在的な改善に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - MR-GSM8K: A Meta-Reasoning Revolution in Large Language Model Evaluation [65.07691494584843]
本稿では,メタ推論への取り組みに挑戦する,大規模言語モデルのための新しい評価パラダイムを提案する。
このアプローチは、エージェントの認知能力を評価するために伝統的に用いられてきた既存の数学問題解決ベンチマークにおける重大な欠点に対処する。
論文 参考訳(メタデータ) (2023-12-28T15:49:43Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Navigating the Ocean of Biases: Political Bias Attribution in Language
Models via Causal Structures [58.059631072902356]
我々は、LLMの価値観を批判したり、検証したりせず、どのようにして「良い議論」を解釈し、偏見づけるかを見極めることを目的としている。
本研究では,活動依存ネットワーク(ADN)を用いてLCMの暗黙的基準を抽出する。
人-AIアライメントとバイアス緩和について,本研究の結果について考察した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Towards Understanding In-Context Learning with Contrastive Demonstrations and Saliency Maps [7.342347950764399]
大規模言語モデル(LLM)の文脈内学習性能における様々な実演要素の役割について検討する。
具体的には, 地中構造ラベル, 入力分布, 相補的説明の影響について検討する。
論文 参考訳(メタデータ) (2023-07-11T07:03:29Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z) - Interpretable Fake News Detection with Topic and Deep Variational Models [2.15242029196761]
我々は,解釈可能な特徴と手法を用いた偽ニュース検出に焦点をあてる。
我々は,テキストニュースの高密度表現を統合した深層確率モデルを開発した。
我々のモデルは最先端の競合モデルに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2022-09-04T05:31:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。