論文の概要: ORACLE: Time-Dependent Recursive Summary Graphs for Foresight on News Data Using LLMs
- arxiv url: http://arxiv.org/abs/2512.15397v1
- Date: Wed, 17 Dec 2025 12:49:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.989182
- Title: ORACLE: Time-Dependent Recursive Summary Graphs for Foresight on News Data Using LLMs
- Title(参考訳): ORACLE:LLMを用いたニュースデータ予測のための時間依存再帰的要約グラフ
- Authors: Lev Kharlashkin, Eiaki Morooka, Yehor Tereshchenko, Mika Hämäläinen,
- Abstract要約: ORACLEは毎日のニュースを、フィンランド応用科学大学(英語版)の週毎の意思決定対応の洞察に変える。
このプラットフォームはニュースをクロールしてバージョンし、大学固有の関連度フィルタリングを適用し、コンテンツを埋め込み、アイテムをPESTEL次元に分類する。
軽量な変更検出器は、新しいもの、削除されたもの、あるいは変更されたものを強調し、PESTEL対応分析のテーマにグループ分けする。
- 参考スコア(独自算出の注目度): 0.15399429731150377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ORACLE turns daily news into week-over-week, decision-ready insights for one of the Finnish University of Applied Sciences. The platform crawls and versions news, applies University-specific relevance filtering, embeds content, classifies items into PESTEL dimensions and builds a concise Time-Dependent Recursive Summary Graph (TRSG): two clustering layers summarized by an LLM and recomputed weekly. A lightweight change detector highlights what is new, removed or changed, then groups differences into themes for PESTEL-aware analysis. We detail the pipeline, discuss concrete design choices that make the system stable in production and present a curriculum-intelligence use case with an evaluation plan.
- Abstract(参考訳): ORACLEは毎日のニュースを、フィンランド応用科学大学(英語版)の週毎の意思決定対応の洞察に変える。
このプラットフォームは、ニュースをクロールしてバージョンし、大学固有の関連フィルタリングを適用し、コンテンツを埋め込み、アイテムをPESTEL次元に分類し、簡潔な時間依存再帰的要約グラフ(TRSG)を構築する。
軽量な変更検出器は、新しいもの、削除されたもの、あるいは変更されたものを強調し、PESTEL対応分析のテーマにグループ分けする。
パイプラインを詳述し、本番環境でシステムを安定させる具体的な設計選択について議論し、評価計画を伴うカリキュラム知能ユースケースを示す。
関連論文リスト
- Beyond Isolated Dots: Benchmarking Structured Table Construction as Deep Knowledge Extraction [80.88654868264645]
Arranged and Organized extract Benchmarkは、断片化された文書を理解するための大規模言語モデルの能力を評価するために設計された。
AOEには3つの異なるドメインにまたがる11のタスクが含まれており、さまざまな入力クエリに適したコンテキスト固有のスキーマを生成するモデルが必要である。
結果は、最も先進的なモデルでさえ、かなり苦労したことを示している。
論文 参考訳(メタデータ) (2025-07-22T06:37:51Z) - DailyQA: A Benchmark to Evaluate Web Retrieval Augmented LLMs Based on Capturing Real-World Changes [20.967149298479672]
DailyQAは自動更新された動的データセットで、毎週質問を更新し、特定の日付に関する質問に対する回答を含む。
このベンチマークでは、高速な事実データと複数のドメインをカバーすることを含む質問を処理および回答するために、大きな言語モデル(LLM)が必要である。
論文 参考訳(メタデータ) (2025-05-22T15:13:33Z) - ReSpark: Leveraging Previous Data Reports as References to Generate New Reports with LLMs [34.54994059045639]
ReSparkは、既存のレポートから分析ロジックをリバースエンジニアリングし、新しいデータセットに適応するシステムである。
比較およびユーザスタディを通じてReSparkを評価し,既存の解析コードに頼ることなく,データレポート生成の障壁を低くする効果を実証した。
論文 参考訳(メタデータ) (2025-02-04T14:00:32Z) - Unfolding the Headline: Iterative Self-Questioning for News Retrieval and Timeline Summarization [93.56166917491487]
本稿では,オープンドメインニュースタイムライン SummarizatiOn に対するCHRONOS-Causal Headline Retrieval を提案する。
実験の結果,Chronosはオープンドメインのタイムラインの要約に長けているだけでなく,クローズドドメインアプリケーション用に設計された既存の最先端システムの性能に匹敵していることがわかった。
論文 参考訳(メタデータ) (2025-01-01T16:28:21Z) - SubData: Bridging Heterogeneous Datasets to Enable Theory-Driven Evaluation of Political and Demographic Perspectives in LLMs [3.8439345751986913]
大規模言語モデル(LLM)は、多様な人間の視点に合わせることができる。
下流タスク(例えばヘイトスピーチ検出)におけるこのアライメントを評価することは、研究全体にわたる一貫性のないデータセットを使用することにより、依然として困難である。
異種データセットの標準化のために設計されたオープンソースのPythonライブラリであるSubDataを導入し、LLMの視点アライメントを評価する。
論文 参考訳(メタデータ) (2024-12-21T21:40:31Z) - Learning to Plan for Retrieval-Augmented Large Language Models from Knowledge Graphs [59.76268575344119]
知識グラフ(KG)から得られた計画データを用いて,大規模言語モデル(LLM)計画能力を向上するための新しいフレームワークを提案する。
KGデータで微調整されたLLMは、計画能力を向上し、検索を含む複雑なQAタスクを処理するのがより適している。
論文 参考訳(メタデータ) (2024-06-20T13:07:38Z) - Benchmarking LLMs on the Semantic Overlap Summarization Task [7.944123371140184]
本稿では,セマンティック・オーバーラップ・サマライゼーション(SOS)タスクのみを対象に,人気のあるLarge Language Models (LLM) のベンチマーク研究を行う。
このデータセットは、プライバシポリシのドキュメントから得られた135の高品質なSOSデータサンプルを提供する。
次に、TELeRと呼ばれる標準の分類法を用いて、2つのSOSデータセット上で905,216個のLCM生成サマリーを作成し、評価する。
論文 参考訳(メタデータ) (2024-02-26T20:33:50Z) - QTSumm: Query-Focused Summarization over Tabular Data [58.62152746690958]
人々は主に、データ分析を行うか、特定の質問に答えるためにテーブルをコンサルティングします。
そこで本研究では,テキスト生成モデルに人間的な推論を行なわなければならない,クエリ中心のテーブル要約タスクを新たに定義する。
このタスクには,2,934テーブル上の7,111の人間注釈付きクエリ-サマリーペアを含む,QTSummという新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:43:51Z) - Element-aware Summarization with Large Language Models: Expert-aligned
Evaluation and Chain-of-Thought Method [35.181659789684545]
自動要約は、ソースドキュメントのキーアイデアを含む簡潔な要約を生成する。
CNN/DailyMailやBBC XSumからの引用は、主に幻覚と情報冗長性の点で騒々しい。
本稿では,LCMを段階的に生成するためにSumCoT(Slide Chain-of-Thought)手法を提案する。
実験結果から, ROUGE-L では, 最先端の微調整 PLM とゼロショット LLM を+4.33/+4.77 で上回った。
論文 参考訳(メタデータ) (2023-05-22T18:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。