論文の概要: Introducing Spotlight: A Novel Approach for Generating Captivating Key Information from Documents
- arxiv url: http://arxiv.org/abs/2509.10935v1
- Date: Sat, 13 Sep 2025 18:18:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.847249
- Title: Introducing Spotlight: A Novel Approach for Generating Captivating Key Information from Documents
- Title(参考訳): Spotlight: ドキュメントからキー情報を生成するための新しいアプローチ
- Authors: Ankan Mullick, Sombit Bose, Rounak Saha, Ayan Kumar Bhowmick, Aditya Vempaty, Prasenjit Dey, Ravi Kokku, Pawan Goyal, Niloy Ganguly,
- Abstract要約: 本稿では,文書の最も説得力のある側面を強調することで,簡潔で魅力的な物語を生成する,情報抽出のための新しいパラダイムであるSpotlightを紹介する。
我々の総合的な評価は、得られたモデルは、精度の高いキー要素を識別するだけでなく、可読性を高め、元のドキュメントのエンゲージメント値を高めることを実証している。
- 参考スコア(独自算出の注目度): 25.75158276797885
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this paper, we introduce Spotlight, a novel paradigm for information extraction that produces concise, engaging narratives by highlighting the most compelling aspects of a document. Unlike traditional summaries, which prioritize comprehensive coverage, spotlights selectively emphasize intriguing content to foster deeper reader engagement with the source material. We formally differentiate spotlights from related constructs and support our analysis with a detailed benchmarking study using new datasets curated for this work. To generate high-quality spotlights, we propose a two-stage approach: fine-tuning a large language model on our benchmark data, followed by alignment via Direct Preference Optimization (DPO). Our comprehensive evaluation demonstrates that the resulting model not only identifies key elements with precision but also enhances readability and boosts the engagement value of the original document.
- Abstract(参考訳): 本稿では,文書の最も説得力のある側面を強調することで,簡潔で魅力的な物語を創出する,情報抽出のための新しいパラダイムであるSpotlightを紹介する。
包括的カバレッジを優先する従来の要約とは異なり、スポットライトは、ソース資料とのより深い読者エンゲージメントを促進するために、興味をそそるコンテンツを選択的に強調する。
我々は、関連する構成物とスポットライトを正式に区別し、この研究のためにキュレートされた新しいデータセットを使用して詳細なベンチマーク研究を行い、分析をサポートする。
高品質なスポットライトを生成するために,ベンチマークデータ上で大きな言語モデルを微調整し,その後にDPO(Direct Preference Optimization)によるアライメントを行う2段階のアプローチを提案する。
我々の総合的な評価は、得られたモデルは、精度の高いキー要素を識別するだけでなく、可読性を高め、元のドキュメントのエンゲージメント値を高めることを実証している。
関連論文リスト
- Movie2Story: A framework for understanding videos and telling stories in the form of novel text [0.0]
補助情報に富んだシナリオにおけるテキスト生成能力を評価するための新しいベンチマークを提案する。
本研究は,高精度な補助情報の提供を確実にするための,革新的な自動データセット生成手法を提案する。
本実験により, 提案した評価指標に基づいて, 現在のMLLM(Multi-modal Large Language Models)が準最適に動作していることが判明した。
論文 参考訳(メタデータ) (2024-12-19T15:44:04Z) - TG-LLaVA: Text Guided LLaVA via Learnable Latent Embeddings [61.9257731511557]
視覚言語モデル(VLM)を最適化するためのテキストガイド付きLLaVA(TG-LLaVA)を提案する。
学習可能な潜伏埋め込みをブリッジとして使用し、テキスト命令を分析し、視覚エンコーダに解析結果をガイダンスとして付加する。
テキストのガイダンスによって、視覚エンコーダは、人間が質問を考えるとき、画像の最も関連性の高い部分に集中する方法と同様に、テキスト関連の特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-09-15T00:38:34Z) - Exploring Precision and Recall to assess the quality and diversity of LLMs [82.21278402856079]
我々はtextscLlama-2 や textscMistral のような大規模言語モデル (LLM) のための新しい評価フレームワークを提案する。
このアプローチにより、コーパスの整合を必要とせず、生成したテキストの品質と多様性を微妙に評価できる。
論文 参考訳(メタデータ) (2024-02-16T13:53:26Z) - LLM Based Multi-Document Summarization Exploiting Main-Event Biased
Monotone Submodular Content Extraction [42.171703872560286]
マルチドキュメントの要約は、その固有の主観的バイアスのために難しい課題である。
我々は,関連ニュース資料群の主要イベントに着目し,ニュース要約の客観性を高めることを目的としている。
論文 参考訳(メタデータ) (2023-10-05T09:38:09Z) - Named Entity Recognition Based Automatic Generation of Research
Highlights [3.9410617513331863]
我々は,研究論文の異なるセクションを入力として,研究ハイライトを自動的に生成することを目指している。
入力に名前付きエンティティ認識を用いることで、生成したハイライトの品質が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2023-02-25T16:33:03Z) - Improving Keyphrase Extraction with Data Augmentation and Information
Filtering [67.43025048639333]
キーフレーズ抽出はNLPにおける文書理解に不可欠なタスクの1つである。
本稿では,Behanceプラットフォーム上でストリームされたビデオからキーフレーズを抽出するための新しいコーパスと手法を提案する。
論文 参考訳(メタデータ) (2022-09-11T22:38:02Z) - iFacetSum: Coreference-based Interactive Faceted Summarization for
Multi-Document Exploration [63.272359227081836]
iFacetSumは、インタラクティブな要約と顔検索を統合している。
微粒なファセットは、クロスドキュメントのコア参照パイプラインに基づいて自動的に生成される。
論文 参考訳(メタデータ) (2021-09-23T20:01:11Z) - Towards Robust Visual Information Extraction in Real World: New Dataset
and Novel Solution [30.438041837029875]
実世界のシナリオに向けた堅牢な視覚情報抽出システム(VIES)を提案する。
VIESは、同時テキスト検出、認識、情報抽出のための統一されたエンドツーエンドのトレーニング可能なフレームワークです。
テキストスポッティングと視覚情報抽出の両方の中国初のベンチマークであるephoieと呼ばれる完全注釈付きデータセットを構築した。
論文 参考訳(メタデータ) (2021-01-24T11:05:24Z) - Better Highlighting: Creating Sub-Sentence Summary Highlights [40.46639471959677]
本稿では,混乱を避けるために,自己完結型ハイライトを生成する新しい手法を提案する。
提案手法は, 決定点過程と文脈表現を組み合わせ, 部分文セグメントの最適集合を同定する。
本手法の柔軟性とモデリング能力を示すため,要約データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2020-10-20T18:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。