論文の概要: Textual Summarisation of Large Sets: Towards a General Approach
- arxiv url: http://arxiv.org/abs/2401.09041v1
- Date: Wed, 17 Jan 2024 08:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 16:38:47.363955
- Title: Textual Summarisation of Large Sets: Towards a General Approach
- Title(参考訳): 大集合のテキスト要約 : 汎用的アプローチに向けて
- Authors: Kittipitch Kuptavanich, Ehud Reiter, Kees Van Deemter, Advaith
Siddharthan
- Abstract要約: 我々は,学術論文における参照集合を要約するためのルールベースNLG手法を提示し,評価する。
これは、消費者製品の集合の要約に関するこれまでの作業を拡張し、我々のモデルがこれらの2つの非常に異なる領域をどのように一般化するかを示す。
- 参考スコア(独自算出の注目度): 6.300214994153669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We are developing techniques to generate summary descriptions of sets of
objects. In this paper, we present and evaluate a rule-based NLG technique for
summarising sets of bibliographical references in academic papers. This extends
our previous work on summarising sets of consumer products and shows how our
model generalises across these two very different domains.
- Abstract(参考訳): オブジェクトの集合の要約記述を生成する技術を開発している。
本稿では,学術論文における文献参照の集合を要約するルールベースNLG手法を提案し,評価する。
これは、消費者製品の集合の要約に関するこれまでの作業を拡張し、我々のモデルがこれらの2つの非常に異なる領域をどのように一般化しているかを示す。
関連論文リスト
- DomainSum: A Hierarchical Benchmark for Fine-Grained Domain Shift in Abstractive Text Summarization [1.7009235747761653]
DomainSumは抽象的な要約において、きめ細かいドメインシフトをキャプチャするために設計された階層的なベンチマークである。
これらの変化をジャンル,スタイル,トピックという3つのレベルに分類し,階層構造に従うような総合的なベンチマーク分析を通じて示す。
論文 参考訳(メタデータ) (2024-10-21T06:55:35Z) - Leveraging Collection-Wide Similarities for Unsupervised Document Structure Extraction [61.998789448260005]
本稿では,コレクション内の文書の典型的構造を特定することを提案する。
任意のヘッダのパラフレーズを抽象化し、各トピックを各ドキュメントのロケーションにグルーピングします。
文書間の類似性を利用した教師なしグラフベース手法を開発した。
論文 参考訳(メタデータ) (2024-02-21T16:22:21Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - A Survey on Compositional Generalization in Applications [34.854536132163595]
共通の応用の分類を導入し、それぞれの分野の最先端を要約する。
我々は、この急成長する分野の将来に関する重要なトレンドを特定し、新たな視点を提供する。
論文 参考訳(メタデータ) (2023-02-02T12:56:26Z) - A comprehensive review of automatic text summarization techniques:
method, data, evaluation and coding [1.9241821314180376]
本稿では,ATS(Automatic Text Summarization)システムに関する文献レビューを行う。
我々は、引用に基づくアプローチを検討し、それらが要約を生成するメカニズムによって導かれるATSに対する多様なアプローチを示す。
また、要約タスクに利用可能なデータセットの広範なレビューと、要約の品質を評価する方法についても紹介する。
論文 参考訳(メタデータ) (2023-01-04T19:20:18Z) - Unsupervised Summarization with Customized Granularities [76.26899748972423]
本稿では,最初の教師なし多粒度要約フレームワークであるGranuSumを提案する。
異なる数のイベントを入力することで、GranuSumは教師なしの方法で複数の粒度のサマリーを生成することができる。
論文 参考訳(メタデータ) (2022-01-29T05:56:35Z) - Aspect-Controllable Opinion Summarization [58.5308638148329]
アスペクトクエリに基づいてカスタマイズした要約を生成する手法を提案する。
レビューコーパスを用いて、アスペクトコントローラで強化された(リビュー、サマリ)ペアの合成トレーニングデータセットを作成する。
合成データセットを用いて事前学習したモデルを微調整し、アスペクトコントローラを変更することでアスペクト固有の要約を生成する。
論文 参考訳(メタデータ) (2021-09-07T16:09:17Z) - Legal Search in Case Law and Statute Law [12.697393184074457]
本稿では,典型的法的文書収集の文脈において,文書の相互関連性を識別する手法について述べる。
本稿では、教師あり教師なし学習を含む一般化言語モデルの使用状況について概観する。
論文 参考訳(メタデータ) (2021-08-23T12:51:24Z) - Topic-Guided Abstractive Text Summarization: a Joint Learning Approach [19.623946402970933]
本稿では,抽象テキスト要約のための新しいアプローチ,トピックガイドによる抽象要約を提案する。
ニューラルネットワークをTransformerベースのシーケンス・ツー・シーケンス(seq2seq)モデルに結合学習フレームワークに組み込むことが目的だ。
論文 参考訳(メタデータ) (2020-10-20T14:45:25Z) - Summarizing Text on Any Aspects: A Knowledge-Informed Weakly-Supervised
Approach [89.56158561087209]
文書に関連する任意の側面を要約する。
監視データがないため、我々は新しい弱い監督構築法とアスペクト・モデリング・スキームを開発した。
実験により,本手法は実文書と合成文書の両方を要約することで,性能の向上を図っている。
論文 参考訳(メタデータ) (2020-10-14T03:20:46Z) - SupMMD: A Sentence Importance Model for Extractive Summarization using
Maximum Mean Discrepancy [92.5683788430012]
SupMMDは、カーネルの2サンプルテストと最大の相違点に基づく、ジェネリックおよび更新の要約のための新しいテクニックである。
DUC-2004 および TAC-2009 データセット上での現在の技術状況を満たしたり超えたりすることで,SupMMD の総合的および更新的要約タスクにおける有効性を示す。
論文 参考訳(メタデータ) (2020-10-06T09:26:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。