論文の概要: Aspect-Based Summarization with Self-Aspect Retrieval Enhanced Generation
- arxiv url: http://arxiv.org/abs/2504.13054v1
- Date: Thu, 17 Apr 2025 16:09:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:38:52.873186
- Title: Aspect-Based Summarization with Self-Aspect Retrieval Enhanced Generation
- Title(参考訳): 自己アスペクト検索の強化によるアスペクトベース要約
- Authors: Yichao Feng, Shuai Zhao, Yueqiu Li, Luwei Xiao, Xiaobao Wu, Anh Tuan Luu,
- Abstract要約: アスペクトベースの要約は、特定の側面に合わせた要約を生成することを目的としている。
本稿では,アスペクトベースの要約のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 23.801244006016972
- License:
- Abstract: Aspect-based summarization aims to generate summaries tailored to specific aspects, addressing the resource constraints and limited generalizability of traditional summarization approaches. Recently, large language models have shown promise in this task without the need for training. However, they rely excessively on prompt engineering and face token limits and hallucination challenges, especially with in-context learning. To address these challenges, in this paper, we propose a novel framework for aspect-based summarization: Self-Aspect Retrieval Enhanced Summary Generation. Rather than relying solely on in-context learning, given an aspect, we employ an embedding-driven retrieval mechanism to identify its relevant text segments. This approach extracts the pertinent content while avoiding unnecessary details, thereby mitigating the challenge of token limits. Moreover, our framework optimizes token usage by deleting unrelated parts of the text and ensuring that the model generates output strictly based on the given aspect. With extensive experiments on benchmark datasets, we demonstrate that our framework not only achieves superior performance but also effectively mitigates the token limitation problem.
- Abstract(参考訳): アスペクトベースの要約は、リソース制約と従来の要約アプローチの限定的な一般化性に対処して、特定の側面に合わせた要約を生成することを目的としている。
近年、大規模な言語モデルは、トレーニングを必要とせずに、このタスクで有望であることが示されている。
しかし、彼らは、特に文脈内学習において、迅速なエンジニアリングとフェイストークン制限と幻覚の課題に過度に依存している。
本稿では,これらの課題に対処するために,アスペクトベースの要約のための新しいフレームワークを提案する。
文脈内学習のみに頼るのではなく、埋め込み駆動型検索機構を用いてテキストセグメントを識別する。
このアプローチは、不要な詳細を避けながら関連するコンテンツを抽出し、トークン制限の課題を軽減する。
さらに,本フレームワークは,テキストの非関連部分を削除し,与えられたアスペクトに基づいて厳密に出力を生成することにより,トークンの使用を最適化する。
ベンチマークデータセットに関する広範な実験により、我々のフレームワークは優れた性能を達成するだけでなく、トークン制限問題を効果的に軽減することを示した。
関連論文リスト
- Learning Task Representations from In-Context Learning [73.72066284711462]
大規模言語モデル(LLM)は、文脈内学習において顕著な習熟性を示している。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法の有効性は,最後の隠れ状態の分布と最適に実行されたテキスト内学習モデルとの整合性に起因していることを示す。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - ChallengeMe: An Adversarial Learning-enabled Text Summarization Framework [7.34943328546274]
本稿では,逆学習に基づくプロンプトフレームワークであるChallengeMeを構築した。
これには、生成プロンプト、評価プロンプト、フィードバック最適化の3つのケースドソリューションが含まれている。
テキスト要約タスクにおける混合ケーススタディの結果から,提案するフレームワークがより正確で流動的なテキスト要約を生成できることが示唆された。
論文 参考訳(メタデータ) (2025-02-07T16:59:34Z) - SUMI-IFL: An Information-Theoretic Framework for Image Forgery Localization with Sufficiency and Minimality Constraints [66.85363924364628]
イメージフォージェリーローカライゼーション (IFL) は, 改ざん画像誤用を防止し, 社会安全を守るための重要な技術である。
本稿では,情報理論IFL フレームワーク SUMI-IFL について紹介する。
論文 参考訳(メタデータ) (2024-12-13T09:08:02Z) - SpeciaLex: A Benchmark for In-Context Specialized Lexicon Learning [4.1205832766381985]
SpeciaLexは、特殊レキシコンベースの制約に従う言語モデルの能力を評価するためのベンチマークである。
本稿では,15のオープン・クローズド・ソース LLM の実証評価を行い,モデルスケール,オープンネス,セットアップ,信頼性などの要因が,ベンチマークで評価した場合のパフォーマンスに与える影響について考察する。
論文 参考訳(メタデータ) (2024-07-18T08:56:02Z) - FENICE: Factuality Evaluation of summarization based on Natural language Inference and Claim Extraction [85.26780391682894]
自然言語推論とクレーム抽出(FENICE)に基づく要約のファクチュアリティ評価を提案する。
FENICEは、ソース文書内の情報と、要約から抽出されたクレームと呼ばれる一連の原子的事実との間のNLIベースのアライメントを利用する。
我々の測定基準は、事実性評価のためのデファクトベンチマークであるAGGREFACTに関する新しい技術状況を設定する。
論文 参考訳(メタデータ) (2024-03-04T17:57:18Z) - ConstraintMatch for Semi-constrained Clustering [32.92933231199262]
制約クラスタリングにより、ペアの制約のみを使用して分類モデルのトレーニングが可能になる。
そこで本稿では,制約の少ない制約セットとともに大量のテキスト非制約データを利用できる半教師付きコンテキストを提案し,制約のないデータを活用するためのtextitConstraintMatchを提案する。
論文 参考訳(メタデータ) (2023-11-26T19:31:52Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - SummIt: Iterative Text Summarization via ChatGPT [12.966825834765814]
本稿では,ChatGPTのような大規模言語モデルに基づく反復的なテキスト要約フレームワークSummItを提案する。
我々のフレームワークは、自己評価とフィードバックによって生成された要約を反復的に洗練することを可能にする。
また, 繰り返し改良の有効性を検証し, 過補正の潜在的な問題を特定するために, 人間の評価を行う。
論文 参考訳(メタデータ) (2023-05-24T07:40:06Z) - Controllable Summarization with Constrained Markov Decision Process [50.04321779376415]
本研究では,ユーザが特定の属性を制御できる可制御テキスト要約について検討する。
制約付きマルコフ決定プロセス(CMDP)に基づく新しいトレーニングフレームワークを提案する。
我々のフレームワークは、長さ、被覆された実体、抽象性など、要約の重要な属性を制御するために応用できる。
論文 参考訳(メタデータ) (2021-08-07T09:12:53Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。