論文の概要: Sentence Embeddings as an intermediate target in end-to-end summarisation
- arxiv url: http://arxiv.org/abs/2505.03481v1
- Date: Tue, 06 May 2025 12:34:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.369928
- Title: Sentence Embeddings as an intermediate target in end-to-end summarisation
- Title(参考訳): 終末要約における中間的ターゲットとしての文埋め込み
- Authors: Maciej Zembrzuski, Saad Mahamood,
- Abstract要約: 抽出手法と事前学習した文レベルの埋め込みを組み合わせることで,既存の手法よりも優れた性能が得られることを示す。
また,要約文の文レベルの埋め込みを予測することで,目的コーパスに対するゆるやかに整列したソースに対するエンドツーエンドシステムの品質が向上することが証明された。
- 参考スコア(独自算出の注目度): 1.4044612085920334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current neural network-based methods to the problem of document summarisation struggle when applied to datasets containing large inputs. In this paper we propose a new approach to the challenge of content-selection when dealing with end-to-end summarisation of user reviews of accommodations. We show that by combining an extractive approach with externally pre-trained sentence level embeddings in an addition to an abstractive summarisation model we can outperform existing methods when this is applied to the task of summarising a large input dataset. We also prove that predicting sentence level embedding of a summary increases the quality of an end-to-end system for loosely aligned source to target corpora, than compared to commonly predicting probability distributions of sentence selection.
- Abstract(参考訳): 大規模な入力を含むデータセットに適用する場合、文書要約の問題に対する現在のニューラルネットワークベースの手法は困難である。
本稿では,宿泊施設のユーザレビューのエンドツーエンドの要約を扱う際に,コンテンツ選択の課題に対する新しいアプローチを提案する。
抽象的な要約モデルに加え、抽出的アプローチと外部訓練済みの文レベルの埋め込みを組み合わせることで、大規模な入力データセットを要約するタスクに適用した場合、既存の手法よりも優れていることを示す。
また,要約文の文レベルの埋め込み予測は,文選択の確率分布の予測よりも,目的コーパスにゆるやかに整列したソースに対するエンドツーエンドシステムの品質を高めることを証明した。
関連論文リスト
- Balancing Diversity and Risk in LLM Sampling: How to Select Your Method and Parameter for Open-Ended Text Generation [60.493180081319785]
本稿では,各復号ステップにおける多様性とリスクのトレードオフを考慮し,トラクションサンプリング手法のキャパシティを推定する体系的手法を提案する。
本研究は,既存のトラクションサンプリング手法を総合的に比較し,パラメータ選択のための実用的なユーザガイドとして機能する。
論文 参考訳(メタデータ) (2024-08-24T14:14:32Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - Enhancing Topic Extraction in Recommender Systems with Entropy
Regularization [2.7286395031146062]
本稿では,レコメンデータシステムの低説明可能性問題に対処するため,エントロピー正規化と呼ばれる新しい手法を提案する。
実験の結果,単語埋め込みにおけるコサイン類似性によって定量化され,トピックコヒーレンスが著しく向上したことが示された。
論文 参考訳(メタデータ) (2023-06-12T20:05:09Z) - A New Sentence Extraction Strategy for Unsupervised Extractive
Summarization Methods [26.326800624948344]
本稿では,情報理論の観点から,抽出テキスト要約手法の課題をモデル化する。
特徴分布の改善と要約文の相互情報の低減を目的として,新たな文抽出手法を提案する。
論文 参考訳(メタデータ) (2021-12-06T18:00:02Z) - The Summary Loop: Learning to Write Abstractive Summaries Without
Examples [21.85348918324668]
本研究は,与えられた長さ制約に対するカバレッジとフラエンシの組み合わせを最大化することに基づく,教師なし抽象的要約に対する新しいアプローチを提案する。
主要な用語は元のドキュメントから隠蔽され、現在の生成された要約を使ってカバレッジモデルで満たされなければならない。
一般的なニュース要約データセットでテストすると、従来の教師なし手法よりも2R-1ポイント以上性能が向上する。
論文 参考訳(メタデータ) (2021-05-11T23:19:46Z) - Unsupervised Extractive Summarization using Pointwise Mutual Information [5.544401446569243]
文間のポイントワイズ相互情報 (PMI) を用いて, 関連性および冗長性の新たな指標を提案する。
本手法は, ニュース, 医療雑誌記事, 個人逸話など, さまざまな領域のデータセットにおける類似性に基づく手法を上回っていることを示した。
論文 参考訳(メタデータ) (2021-02-11T21:05:50Z) - Abstractive Query Focused Summarization with Query-Free Resources [60.468323530248945]
本稿では,汎用的な要約リソースのみを利用して抽象的なqfsシステムを構築する問題を考える。
本稿では,要約とクエリのための新しい統一表現からなるMasked ROUGE回帰フレームワークであるMargeを提案する。
最小限の監視から学習したにもかかわらず,遠隔管理環境において最先端の結果が得られた。
論文 参考訳(メタデータ) (2020-12-29T14:39:35Z) - Summary-Source Proposition-level Alignment: Task, Datasets and
Supervised Baseline [94.0601799665342]
資料の参照要約における文のアライメントは,補助的な要約作業として有用であった。
本稿では,2つの重要な新機能を導入しながら,要約ソースアライメントを明示的なタスクとして確立することを提案する。
我々は提案レベルのアライメントのための新しいトレーニングデータセットを作成し、利用可能な要約評価データから自動的に抽出する。
教師なしアプローチよりも優れたアライメント品質を示す教師付き命題アライメントベースラインモデルを提案する。
論文 参考訳(メタデータ) (2020-09-01T17:27:12Z) - SummPip: Unsupervised Multi-Document Summarization with Sentence Graph
Compression [61.97200991151141]
SummPipはマルチドキュメント要約のための教師なしの手法である。
元の文書を文グラフに変換し、言語表現と深層表現の両方を考慮に入れます。
次に、スペクトルクラスタリングを適用して複数の文のクラスタを取得し、最後に各クラスタを圧縮して最終的な要約を生成する。
論文 参考訳(メタデータ) (2020-07-17T13:01:15Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。