論文の概要: Towards Temporal Knowledge-Base Creation for Fine-Grained Opinion Analysis with Language Models
- arxiv url: http://arxiv.org/abs/2509.02363v1
- Date: Tue, 02 Sep 2025 14:24:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.063792
- Title: Towards Temporal Knowledge-Base Creation for Fine-Grained Opinion Analysis with Language Models
- Title(参考訳): 言語モデルを用いた微粒化オピニオン分析のための時間的知識ベース作成に向けて
- Authors: Gaurav Negi, Atul Kr. Ojha, Omnia Zayed, Paul Buitelaar,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を自動アノテータとして,時間的意見知識ベースを構築するためのスケーラブルな手法を提案する。
我々は、感情と意見マイニングの文献に基づく3つのデータモデルを定義し、構造化された表現のスキーマとして機能する。
得られた知識ベースは、タイムアラインで構造化された意見をカプセル化し、検索・拡張生成(RAG)、時間的質問応答、タイムライン要約のアプリケーションと互換性がある。
- 参考スコア(独自算出の注目度): 3.954853544590893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a scalable method for constructing a temporal opinion knowledge base with large language models (LLMs) as automated annotators. Despite the demonstrated utility of time-series opinion analysis of text for downstream applications such as forecasting and trend analysis, existing methodologies underexploit this potential due to the absence of temporally grounded fine-grained annotations. Our approach addresses this gap by integrating well-established opinion mining formulations into a declarative LLM annotation pipeline, enabling structured opinion extraction without manual prompt engineering. We define three data models grounded in sentiment and opinion mining literature, serving as schemas for structured representation. We perform rigorous quantitative evaluation of our pipeline using human-annotated test samples. We carry out the final annotations using two separate LLMs, and inter-annotator agreement is computed label-wise across the fine-grained opinion dimensions, analogous to human annotation protocols. The resulting knowledge base encapsulates time-aligned, structured opinions and is compatible with applications in Retrieval-Augmented Generation (RAG), temporal question answering, and timeline summarisation.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)を自動アノテータとして,時間的意見知識ベースを構築するためのスケーラブルな手法を提案する。
予測や傾向分析などの下流アプリケーションにおけるテキストの時系列的意見分析の有用性が実証されているにもかかわらず、既存の方法論では、時間的背景の細かいアノテーションが欠如しているため、この可能性を探ることができない。
提案手法は,定式化された意見マイニングを宣言型LLMアノテーションパイプラインに統合することにより,手動のプロンプトエンジニアリングを使わずに構造化された意見抽出を可能にする。
我々は、感情と意見マイニングの文献に基づく3つのデータモデルを定義し、構造化された表現のスキーマとして機能する。
我々は,人手による検査サンプルを用いて,パイプラインの厳密な定量的評価を行う。
2つの別々のLCMを用いて最終アノテーションを実行し、人間のアノテーションプロトコルに類似した微粒な意見次元において、アノテーション間合意をラベル単位で計算する。
得られた知識ベースは、タイムアラインで構造化された意見をカプセル化し、検索・拡張生成(RAG)、時間的質問応答、タイムライン要約のアプリケーションと互換性がある。
関連論文リスト
- Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - Semantic Consistency Regularization with Large Language Models for Semi-supervised Sentiment Analysis [20.503153899462323]
本稿では,半教師付き感情分析のためのフレームワークを提案する。
テキストを意味的に拡張する2つのプロンプト戦略を導入する。
実験により,従来の半教師付き手法よりも優れた性能が得られた。
論文 参考訳(メタデータ) (2025-01-29T12:03:11Z) - XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Establishing a Unified Evaluation Framework for Human Motion Generation: A Comparative Analysis of Metrics [6.708543240320757]
本稿では,人体動作生成のための8つの評価指標について詳細に検討する。
我々は一貫したモデル比較を容易にするため、統一的な評価設定を通じて標準化されたプラクティスを提案する。
変形する多様性を分析して時間歪みの多様性を評価する新しい指標を提案する。
論文 参考訳(メタデータ) (2024-05-13T12:10:57Z) - A Hybrid Approach To Aspect Based Sentiment Analysis Using Transfer Learning [3.30307212568497]
本稿では,移動学習を用いたアスペクトベース感性分析のためのハイブリッド手法を提案する。
このアプローチは、大きな言語モデル(LLM)と従来の構文的依存関係の両方の長所を利用して、弱い教師付きアノテーションを生成することに焦点を当てている。
論文 参考訳(メタデータ) (2024-03-25T23:02:33Z) - TRAM: Benchmarking Temporal Reasoning for Large Language Models [12.112914393948415]
10個のデータセットからなる時間的推論ベンチマークであるTRAMを紹介する。
GPT-4やLlama2のような一般的な言語モデルをゼロショットや少数ショットのシナリオで評価する。
以上の結果から,最も優れたモデルラグは人的パフォーマンスに大きく遅れていることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T00:59:07Z) - Tempo vs. Pitch: understanding self-supervised tempo estimation [0.783970968131292]
自己超越法は、人間が生成したラベルを必要としないプレテキストタスクを解くことで表現を学習する。
自己教師型テンポ推定における入力表現とデータ分布の関係について検討する。
論文 参考訳(メタデータ) (2023-04-14T00:08:08Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - SNaC: Coherence Error Detection for Narrative Summarization [73.48220043216087]
SNaCは長文の微粒化アノテーションに根ざした物語コヒーレンス評価フレームワークである。
本稿では,生成した物語要約におけるコヒーレンスエラーの分類法を開発し,150冊の本や映画の脚本要約にまたがる6.6k文のスパンレベルアノテーションを収集する。
我々の研究は、最先端の要約モデルによって生成されるコヒーレンスエラーの最初の特徴と、群衆アノテータからコヒーレンス判断を引き出すためのプロトコルを提供する。
論文 参考訳(メタデータ) (2022-05-19T16:01:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。