論文の概要: A Topic-aware Summarization Framework with Different Modal Side
Information
- arxiv url: http://arxiv.org/abs/2305.11503v1
- Date: Fri, 19 May 2023 08:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 15:36:14.119816
- Title: A Topic-aware Summarization Framework with Different Modal Side
Information
- Title(参考訳): モーダルサイド情報が異なるトピックアウェアな要約フレームワーク
- Authors: Xiuying Chen, Mingzhe Li, Shen Gao, Xin Cheng, Qiang Yang, Qishen
Zhang, Xin Gao, Xiangliang Zhang
- Abstract要約: 本稿では,様々な側面情報を柔軟に組み込んだ一般的な要約フレームワークを提案する。
まず,文書と各種の側情報から潜在トピックを共同で発見する,統合されたトピックエンコーダを提案する。
その結果,我々のモデルは,3つの公開単一モーダルまたはマルチモーダルベンチマークの要約データセットに対して,強いベースラインをはるかに超えていることがわかった。
- 参考スコア(独自算出の注目度): 40.11141446039445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic summarization plays an important role in the exponential document
growth on the Web. On content websites such as CNN.com and WikiHow.com, there
often exist various kinds of side information along with the main document for
attention attraction and easier understanding, such as videos, images, and
queries. Such information can be used for better summarization, as they often
explicitly or implicitly mention the essence of the article. However, most of
the existing side-aware summarization methods are designed to incorporate
either single-modal or multi-modal side information, and cannot effectively
adapt to each other. In this paper, we propose a general summarization
framework, which can flexibly incorporate various modalities of side
information. The main challenges in designing a flexible summarization model
with side information include: (1) the side information can be in textual or
visual format, and the model needs to align and unify it with the document into
the same semantic space, (2) the side inputs can contain information from
various aspects, and the model should recognize the aspects useful for
summarization. To address these two challenges, we first propose a unified
topic encoder, which jointly discovers latent topics from the document and
various kinds of side information. The learned topics flexibly bridge and guide
the information flow between multiple inputs in a graph encoder through a
topic-aware interaction. We secondly propose a triplet contrastive learning
mechanism to align the single-modal or multi-modal information into a unified
semantic space, where the summary quality is enhanced by better understanding
the document and side information. Results show that our model significantly
surpasses strong baselines on three public single-modal or multi-modal
benchmark summarization datasets.
- Abstract(参考訳): ウェブ上の指数関数的文書成長において,自動要約が重要な役割を担っている。
CNN.com や WikiHow.com などのコンテンツサイトでは、ビデオ、画像、クエリなど、注意喚起や理解の容易化のための主要な文書とともに、様々な種類のサイド情報が存在することが多い。
このような情報は、しばしば記事の本質を明示的にまたは暗黙的に言及するため、より良い要約に使用できる。
しかし、既存のサイドアウェアの要約手法のほとんどは、シングルモーダルまたはマルチモーダルのサイド情報を組み込むように設計されており、互いに効果的に適応できない。
本稿では,様々な側面情報を柔軟に組み込む汎用的な要約フレームワークを提案する。
側面情報を持つ柔軟な要約モデルを設計する際の主な課題は、(1)サイド情報はテキスト的または視覚的なフォーマットであり、そのモデルが文書を同じ意味空間に整列して統一する必要があること、(2)サイドインプットに様々な側面の情報が含まれること、そして、モデルが要約に有用な側面を認識すること、である。
この2つの課題に対処するために,我々はまず,文書から潜在トピックと各種のサイド情報を同時に発見する統一トピックエンコーダを提案する。
学習したトピックは、トピック認識インタラクションを通じて、グラフエンコーダ内の複数の入力間の情報フローを柔軟にブリッジし、ガイドする。
第2に、文書と側情報をよりよく理解することで要約品質を向上させる統一意味空間に、単一のモーダルまたはマルチモーダル情報を整合させる3重対向学習機構を提案する。
その結果,本モデルは3つの公開シングルモーダル・マルチモーダルベンチマーク集計データセットにおいて,強いベースラインを著しく上回っていることがわかった。
関連論文リスト
- Unified Multi-Modal Interleaved Document Representation for Information Retrieval [57.65409208879344]
我々は、異なるモダリティでインターリーブされた文書を均等に埋め込み、より包括的でニュアンスのある文書表現を生成する。
具体的には、テキスト、画像、テーブルの処理と統合を統一されたフォーマットと表現に統合する、近年のビジョン言語モデルの能力を活用して、これを実現する。
論文 参考訳(メタデータ) (2024-10-03T17:49:09Z) - Information Screening whilst Exploiting! Multimodal Relation Extraction
with Feature Denoising and Multimodal Topic Modeling [96.75821232222201]
既存のマルチモーダル関係抽出(MRE)研究は、内部情報過剰利用と外部情報過多という2つの共存課題に直面している。
内部情報スクリーニングと外部情報活用を同時に実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:57Z) - TRIE++: Towards End-to-End Information Extraction from Visually Rich
Documents [51.744527199305445]
本稿では,視覚的にリッチな文書からエンド・ツー・エンドの情報抽出フレームワークを提案する。
テキスト読み出しと情報抽出は、よく設計されたマルチモーダルコンテキストブロックを介して互いに強化することができる。
フレームワークはエンドツーエンドのトレーニング可能な方法でトレーニングでき、グローバルな最適化が達成できる。
論文 参考訳(メタデータ) (2022-07-14T08:52:07Z) - NEWTS: A Corpus for News Topic-Focused Summarization [9.872518517174498]
本稿では,CNN/Dailymailデータセットに基づく最初の話題要約コーパスを提案する。
提案手法の有効性を検証し,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-05-31T10:01:38Z) - Deep Understanding based Multi-Document Machine Reading Comprehension [22.319892892352414]
本稿では,多文書機械読解のための深い理解に基づくモデルを提案する。
単語の意味を正確に理解するために設計された3つの深い理解モジュールがある。
我々は,TriviaQA WebとDuReaderという2つの大規模ベンチマークデータセットを用いて,我々のモデルを評価した。
論文 参考訳(メタデータ) (2022-02-25T12:56:02Z) - Topic-Aware Encoding for Extractive Summarization [15.113768658584979]
この問題に対処するために,文書要約のためのトピック認識符号化を提案する。
ニューラルネットワークに基づく文レベルの表現学習にニューラルトピックモデルを追加し、中心トピック情報を適切に検討する。
3つの公開データセットの実験結果は、我々のモデルが最先端のモデルより優れていることを示している。
論文 参考訳(メタデータ) (2021-12-17T15:26:37Z) - Topic-Guided Abstractive Multi-Document Summarization [21.856615677793243]
多文書要約(MDS)の重要なポイントは、様々な文書間の関係を学習することである。
異種グラフとして複数の文書を表現できる新しい抽象MDSモデルを提案する。
我々は、クロスドキュメントセマンティックユニットとして機能する潜在トピックを共同で発見するために、ニューラルトピックモデルを採用している。
論文 参考訳(メタデータ) (2021-10-21T15:32:30Z) - Towards Personalized and Human-in-the-Loop Document Summarization [0.0]
この論文は、新しい要約技術を用いて情報の過負荷を軽減するための3つの主要な課題に焦点を当てている。
i) 文書要約における機能工学、(ii) 従来の静的および非フレキシブルな要約、(iii) 従来の総合的な要約アプローチ、(iv) 参照要約の必要性をカバーしている。
論文 参考訳(メタデータ) (2021-08-21T05:34:46Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - Leveraging Graph to Improve Abstractive Multi-Document Summarization [50.62418656177642]
我々は、文書のよく知られたグラフ表現を活用することができる、抽象的多文書要約(MDS)モデルを開発する。
本モデルでは,長い文書の要約に欠かせない文書間関係を捉えるために,文書の符号化にグラフを利用する。
また,このモデルでは,要約生成プロセスの導出にグラフを利用することが可能であり,一貫性と簡潔な要約を生成するのに有用である。
論文 参考訳(メタデータ) (2020-05-20T13:39:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。