論文の概要: RTSUM: Relation Triple-based Interpretable Summarization with Multi-level Salience Visualization
- arxiv url: http://arxiv.org/abs/2310.13895v2
- Date: Mon, 25 Mar 2024 13:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 00:51:05.996730
- Title: RTSUM: Relation Triple-based Interpretable Summarization with Multi-level Salience Visualization
- Title(参考訳): RTSUM:マルチレベル・サリエンス・ビジュアライゼーションによるリレーショナルトリプルベース解釈可能な要約
- Authors: Seonglae Cho, Yonggi Cho, HoonJae Lee, Myungha Jang, Jinyoung Yeo, Dongha Lee,
- Abstract要約: 本稿では、関係三重項を要約の基本単位として利用する教師なし要約フレームワークRTSUMを提案する。
また,解釈可能な要約ツールのWebデモも開発した。
- 参考スコア(独自算出の注目度): 12.890135367392524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present RTSUM, an unsupervised summarization framework that utilizes relation triples as the basic unit for summarization. Given an input document, RTSUM first selects salient relation triples via multi-level salience scoring and then generates a concise summary from the selected relation triples by using a text-to-text language model. On the basis of RTSUM, we also develop a web demo for an interpretable summarizing tool, providing fine-grained interpretations with the output summary. With support for customization options, our tool visualizes the salience for textual units at three distinct levels: sentences, relation triples, and phrases. The codes,are publicly available.
- Abstract(参考訳): 本稿では,関係三重項を要約の基本単位として利用する教師なし要約フレームワークRTSUMを提案する。
入力文書が与えられた後、RtsuMはまず、多段階のサリエンススコアを用いて、サリエント関係のトリプルを選択し、その後、テキスト・トゥ・テキスト言語モデルを用いて、選択された関係のトリプルから簡潔な要約を生成する。
また、RTSUMに基づいて、解釈可能な要約ツールのWebデモを開発し、出力の要約を詳細に解釈する。
カスタマイズオプションのサポートにより、テキスト単位のサリエンスを3つの異なるレベル(文、関係トリプル、フレーズ)で可視化する。
コードは公開されています。
関連論文リスト
- MixSumm: Topic-based Data Augmentation using LLMs for Low-resource Extractive Text Summarization [8.432813041805831]
低リソース抽出テキスト要約のためのMixSummを提案する。
具体的には、MixSummはオープンソースのLLMであるLLaMA-3-70bを推進し、複数のトピックから情報を混合するドキュメントを生成する。
ROUGEスコアとL-Eval(参照不要LLaMA-3に基づく評価法)を用いて,生成された要約の質を測定した。
論文 参考訳(メタデータ) (2024-07-10T03:25:47Z) - Source Identification in Abstractive Summarization [0.8883733362171033]
生成された要約文に必須情報を含む入力文を$textitsource文として定義し、ソース文を解析して抽象的な要約がどのように作られるかを研究する。
我々は,複数の手法を比較し,タスクの強いベースラインを確立するために,自動ソース文検出を定式化する。
実験結果から, パープレキシティに基づく手法は, 比較的抽象的条件下では良好に動作し, 類似性に基づく手法は比較的抽出的条件下では頑健であることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:09:09Z) - Prompt Based Tri-Channel Graph Convolution Neural Network for Aspect
Sentiment Triplet Extraction [63.0205418944714]
Aspect Sentiment Triplet extract (ASTE)は、ある文の三つ子を抽出する新しいタスクである。
近年の研究では、単語関係を二次元テーブルにエンコードするテーブル充填パラダイムを用いてこの問題に対処する傾向にある。
本稿では, 関係表をグラフに変換し, より包括的な関係情報を探索する, Prompt-based Tri-Channel Graph Convolution Neural Network (PT-GCN) と呼ばれるASTEタスクの新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-12-18T12:46:09Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - RelationPrompt: Leveraging Prompts to Generate Synthetic Data for
Zero-Shot Relation Triplet Extraction [65.4337085607711]
ゼロショット関係トリプルト抽出(ZeroRTE)のタスク設定について紹介する。
入力文が与えられた後、抽出された各三重項は、トレーニング段階で関係ラベルが見えないヘッドエンティティ、リレーションラベル、テールエンティティから構成される。
本稿では、言語モデルに構造化テキストを生成するよう促すことで、関係例を合成する。
論文 参考訳(メタデータ) (2022-03-17T05:55:14Z) - Document-level Relation Extraction as Semantic Segmentation [38.614931876015625]
文書レベルの関係抽出は、文書から複数のエンティティペア間の関係を抽出することを目的としている。
本稿では,局所的およびグローバルな情報を取得するために,エンティティレベルの関係行列を予測することで,この問題に対処する。
文書レベルの関係抽出のための文書U字型ネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-07T13:44:44Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z) - CTRLsum: Towards Generic Controllable Text Summarization [54.69190421411766]
現在、制御可能な要約のための新しいフレームワークである。
本手法により,ユーザは要約システムと対話することで,生成された要約の複数の側面を制御できる。
単一の統一モデルを使用することで、sumは推論時に要約操作の幅広い範囲を達成できる。
論文 参考訳(メタデータ) (2020-12-08T08:54:36Z) - Fact-level Extractive Summarization with Hierarchical Graph Mask on BERT [9.271716501646194]
より優れた抽出要約のためのファクトレベルのセマンティックユニットを抽出することを提案する。
階層グラフマスクを用いてBERTにモデルを組み込む。
CNN/DaliyMailデータセットの実験は、我々のモデルが最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2020-11-19T09:29:51Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。