論文の概要: Improving Narrative Classification and Explanation via Fine Tuned Language Models
- arxiv url: http://arxiv.org/abs/2509.04077v1
- Date: Thu, 04 Sep 2025 10:12:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.12799
- Title: Improving Narrative Classification and Explanation via Fine Tuned Language Models
- Title(参考訳): 微調整言語モデルによる物語の分類と説明の改善
- Authors: Rishit Tyagi, Rahul Bouri, Mohit Gupta,
- Abstract要約: 本研究は,(1)ニュース記事における物語とサブナラティブのマルチラベル分類,(2)簡潔でエビデンスに基づく,支配的な物語の説明の生成という2つの課題に取り組む。
GPT-4oパイプラインを用いた総合的な物語検出, 予測の精細化のためのリコール指向アプローチにより, BERTモデルを微調整する。
本研究は, メディア分析, 教育, インテリジェンス収集における補助知識の活用により, 分類精度が向上し, 信頼性が向上することを示す。
- 参考スコア(独自算出の注目度): 6.310433217813068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding covert narratives and implicit messaging is essential for analyzing bias and sentiment. Traditional NLP methods struggle with detecting subtle phrasing and hidden agendas. This study tackles two key challenges: (1) multi-label classification of narratives and sub-narratives in news articles, and (2) generating concise, evidence-based explanations for dominant narratives. We fine-tune a BERT model with a recall-oriented approach for comprehensive narrative detection, refining predictions using a GPT-4o pipeline for consistency. For narrative explanation, we propose a ReACT (Reasoning + Acting) framework with semantic retrieval-based few-shot prompting, ensuring grounded and relevant justifications. To enhance factual accuracy and reduce hallucinations, we incorporate a structured taxonomy table as an auxiliary knowledge base. Our results show that integrating auxiliary knowledge in prompts improves classification accuracy and justification reliability, with applications in media analysis, education, and intelligence gathering.
- Abstract(参考訳): 秘密の物語と暗黙のメッセージを理解することは、偏見と感情を分析するのに不可欠である。
従来のNLP法は、微妙なフレーズや隠れたアジェンダを検出するのに苦労している。
本研究は,(1)ニュース記事における物語とサブナラティブのマルチラベル分類,(2)簡潔でエビデンスに基づく,支配的な物語の説明の生成という2つの課題に取り組む。
GPT-4oパイプラインを用いた総合的な物語検出, 予測の精細化のためのリコール指向アプローチにより, BERTモデルを微調整する。
ナラティブな説明のために,セマンティック検索に基づく少数ショットプロンプト機能を備えたReACT(Reasoning + Acting)フレームワークを提案する。
事実の精度を高め,幻覚を減らすため,構造化分類表を補助的知識基盤として組み込んだ。
本研究は, メディア分析, 教育, インテリジェンス収集における補助知識の活用により, 分類精度が向上し, 信頼性が向上することを示す。
関連論文リスト
- AURORA: Augmented Understanding via Structured Reasoning and Reinforcement Learning for Reference Audio-Visual Segmentation [113.75682363364004]
AURORAは、参照音声視覚セグメント化における真の推論と言語理解を強化するために設計されたフレームワークである。
AURORAはRef-AVSベンチマークの最先端性能を達成し、非参照セグメンテーションに効果的に一般化する。
論文 参考訳(メタデータ) (2025-08-04T07:47:38Z) - CL-ISR: A Contrastive Learning and Implicit Stance Reasoning Framework for Misleading Text Detection on Social Media [0.5999777817331317]
本稿では,ソーシャルメディア上の誤解を招くテキストの検出精度を向上させるために,CL-ISR(Contrastive Learning and Implicit Stance Reasoning)を提案する。
まず,比較学習アルゴリズムを用いて,真偽と誤解を招くテキスト間の意味的差異の学習能力を向上させる。
第2に、テキストにおける潜在的姿勢傾向とその関連トピックとの関係を探るため、暗黙的姿勢推論モジュールを導入する。
論文 参考訳(メタデータ) (2025-06-05T14:52:28Z) - Detecting Statements in Text: A Domain-Agnostic Few-Shot Solution [1.3654846342364308]
最先端のアプローチは通常、作成にコストがかかる大規模な注釈付きデータセット上の微調整モデルを含む。
本稿では,クレームに基づくテキスト分類タスクの共通パラダイムとして,定性的で多目的な少ショット学習手法の提案とリリースを行う。
本手法は,気候変動対策,トピック/スタンス分類,うつ病関連症状検出の3つの課題の文脈で説明する。
論文 参考訳(メタデータ) (2024-05-09T12:03:38Z) - Blending Reward Functions via Few Expert Demonstrations for Faithful and
Accurate Knowledge-Grounded Dialogue Generation [22.38338205905379]
我々は、新しい報酬関数を導入することで上記の課題を克服するために強化学習アルゴリズムを活用する。
我々の報奨関数は、精度測定値と忠実度測定値を組み合わせて、生成された応答のバランスの取れた品質判定を提供する。
論文 参考訳(メタデータ) (2023-11-02T02:42:41Z) - Enhancing Argument Structure Extraction with Efficient Leverage of
Contextual Information [79.06082391992545]
本稿では,コンテキスト情報を完全に活用する効率的なコンテキスト認識モデル(ECASE)を提案する。
文脈情報や議論情報を集約するために,シーケンスアテンションモジュールと距離重み付き類似度損失を導入する。
各種ドメインの5つのデータセットに対する実験により,我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-10-08T08:47:10Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - Supporting Vision-Language Model Inference with Confounder-pruning Knowledge Prompt [71.77504700496004]
視覚言語モデルは、オープンセットの視覚概念を扱うために、画像とテキストのペアを共通の空間に整列させることで事前訓練される。
事前訓練されたモデルの転送可能性を高めるため、最近の研究では、固定または学習可能なプロンプトが採用されている。
しかし、どのようにして、どのプロンプトが推論性能を改善するのかは、まだ不明である。
論文 参考訳(メタデータ) (2022-05-23T07:51:15Z) - Distant finetuning with discourse relations for stance classification [55.131676584455306]
そこで本研究では,定位分類のモデルとして,原文から銀ラベルでデータを抽出し,微調整する手法を提案する。
また,様々な段階において微調整に用いるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
NLPCC 2021共有タスクArgumentative Text Understanding for AI Debaterでは,26の競合チームの中で1位にランクインした。
論文 参考訳(メタデータ) (2022-04-27T04:24:35Z) - Temporal Embeddings and Transformer Models for Narrative Text
Understanding [72.88083067388155]
キャラクタ関係モデリングのための物語テキスト理解のための2つのアプローチを提案する。
これらの関係の時間的進化は動的単語埋め込みによって説明され、時間とともに意味的変化を学ぶように設計されている。
最新の変換器モデルBERTに基づく教師付き学習手法を用いて文字間の静的な関係を検出する。
論文 参考訳(メタデータ) (2020-03-19T14:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。