論文の概要: Hierarchical Cross-Modality Semantic Correlation Learning Model for
Multimodal Summarization
- arxiv url: http://arxiv.org/abs/2112.12072v1
- Date: Thu, 16 Dec 2021 01:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-26 12:28:05.232915
- Title: Hierarchical Cross-Modality Semantic Correlation Learning Model for
Multimodal Summarization
- Title(参考訳): マルチモーダル要約のための階層型クロスモダリティ意味相関学習モデル
- Authors: Litian Zhang, Xiaoming Zhang, Junshu Pan, Feiran Huang
- Abstract要約: マルチモーダル出力(MSMO)によるマルチモーダル要約は、テキストコンテンツとビジュアルコンテンツの両方で要約を生成する。
従来のMSMOメソッドは、データ全体の表現を学習することで、異なるデータモダリティを区別できない方法で処理する。
マルチモーダルデータに存在するモーダル内およびモーダル間相関を学習するための階層的相互モーダル意味相関学習モデル(HCSCL)を提案する。
- 参考スコア(独自算出の注目度): 4.714335699701277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal summarization with multimodal output (MSMO) generates a summary
with both textual and visual content. Multimodal news report contains
heterogeneous contents, which makes MSMO nontrivial. Moreover, it is observed
that different modalities of data in the news report correlate hierarchically.
Traditional MSMO methods indistinguishably handle different modalities of data
by learning a representation for the whole data, which is not directly
adaptable to the heterogeneous contents and hierarchical correlation. In this
paper, we propose a hierarchical cross-modality semantic correlation learning
model (HCSCL) to learn the intra- and inter-modal correlation existing in the
multimodal data. HCSCL adopts a graph network to encode the intra-modal
correlation. Then, a hierarchical fusion framework is proposed to learn the
hierarchical correlation between text and images. Furthermore, we construct a
new dataset with relevant image annotation and image object label information
to provide the supervision information for the learning procedure. Extensive
experiments on the dataset show that HCSCL significantly outperforms the
baseline methods in automatic summarization metrics and fine-grained diversity
tests.
- Abstract(参考訳): multimodal summarization with multimodal output (msmo) はテキストコンテンツとビジュアルコンテンツの両方で要約を生成する。
マルチモーダルニュースには異種コンテンツが含まれており、MSMOは非自明である。
さらに、ニュースレポートにおけるデータの異なるモーダル性が階層的に相関していることが観察された。
従来のMSMO法は、データ全体の表現を学習することで、データの異なるモダリティを区別不能に処理するが、これは不均一な内容や階層的相関に直接適応できない。
本稿では,マルチモーダルデータに存在するモーダル内およびモーダル間相関を学習するための階層的相互モーダル意味相関学習モデル(HCSCL)を提案する。
HCSCLは、モーダル内相関を符号化するグラフネットワークを採用している。
次に,テキストと画像の階層的相関を学習するために階層的融合フレームワークを提案する。
さらに、関連する画像アノテーションと画像オブジェクトラベル情報を備えた新しいデータセットを構築し、学習手順の監督情報を提供する。
データセットに関する広範な実験は、hcsclが自動要約メトリクスと細粒度多様性テストでベースラインメソッドを著しく上回っていることを示している。
関連論文リスト
- Leveraging Entity Information for Cross-Modality Correlation Learning: The Entity-Guided Multimodal Summarization [49.08348604716746]
Multimodal Summarization with Multimodal Output (MSMO) は、テキストと関連する画像の両方を統合するマルチモーダル要約を作成することを目的としている。
本稿では,Entity-Guided Multimodal Summarization Model (EGMS)を提案する。
我々のモデルは,BART上に構築され,共有重み付きデュアルマルチモーダルエンコーダを用いて,テキスト画像とエンティティ画像情報を並列に処理する。
論文 参考訳(メタデータ) (2024-08-06T12:45:56Z) - I2SRM: Intra- and Inter-Sample Relationship Modeling for Multimodal
Information Extraction [10.684005956288347]
本稿では,本課題に対するサンプル内およびサンプル間関係モデリング(I2SRM)手法を提案する。
提案手法は,Twitter-2015で77.12%のF1スコア,Twitter-2017で88.40%のF1スコア,MNREで84.12%のF1スコアと競合する結果を得た。
論文 参考訳(メタデータ) (2023-10-10T05:50:25Z) - Preserving Modality Structure Improves Multi-Modal Learning [64.10085674834252]
大規模マルチモーダルデータセットによる自己教師付き学習は、人間のアノテーションに頼ることなく、意味的に意味のある埋め込みを学ぶことができる。
これらの手法は、モダリティ固有の埋め込みに存在する意味構造を無視して、ドメイン外のデータをうまく一般化するのに苦労することが多い。
共同埋め込み空間におけるモダリティ特異的な関係を保ち, 一般化性を向上させるためのセマンティック・構造保存整合性アプローチを提案する。
論文 参考訳(メタデータ) (2023-08-24T20:46:48Z) - Knowledge-Enhanced Hierarchical Information Correlation Learning for
Multi-Modal Rumor Detection [82.94413676131545]
マルチモーダルなうわさ検出のための知識強化型階層型情報相関学習手法(KhiCL)を提案する。
KhiCLは異質な一様性特徴を共通特徴空間に伝達するために、クロスモーダルな関節辞書を利用する。
画像やテキストから視覚的およびテキスト的実体を抽出し、知識関連推論戦略を設計する。
論文 参考訳(メタデータ) (2023-06-28T06:08:20Z) - CISum: Learning Cross-modality Interaction to Enhance Multimodal
Semantic Coverage for Multimodal Summarization [2.461695698601437]
本稿ではマルチタスク・クロスモーダル学習フレームワーク(CISum)を提案する。
視覚的意味論を得るために,テキストの内容との相関に基づいて画像から視覚的記述へと変換する。
そして、視覚的記述とテキスト内容とを融合させてテキスト要約を生成し、マルチモーダルコンテンツのセマンティクスをキャプチャする。
論文 参考訳(メタデータ) (2023-02-20T11:57:23Z) - Multi-modal Contrastive Representation Learning for Entity Alignment [57.92705405276161]
マルチモーダルなエンティティアライメントは、2つの異なるマルチモーダルな知識グラフ間で等価なエンティティを識別することを目的としている。
マルチモーダルコントラスト学習に基づくエンティティアライメントモデルであるMCLEAを提案する。
特に、MCLEAはまず複数のモダリティから複数の個別表現を学習し、その後、モダリティ内およびモダリティ間相互作用を共同でモデル化するコントラスト学習を行う。
論文 参考訳(メタデータ) (2022-09-02T08:59:57Z) - VLCDoC: Vision-Language Contrastive Pre-Training Model for Cross-Modal
Document Classification [3.7798600249187295]
文書データからのマルチモーダル学習は、前もって意味論的に意味のある機能を学習可能な下流タスクに事前学習可能にすることで、近年大きな成功を収めている。
本稿では,言語と視覚の手がかりを通したクロスモーダル表現の学習により,文書分類問題にアプローチする。
提案手法は,ハイレベルなインタラクションを利用して,モダリティ内外における効果的な注意の流れから関連する意味情報を学習する。
論文 参考訳(メタデータ) (2022-05-24T12:28:12Z) - Support-set based Multi-modal Representation Enhancement for Video
Captioning [121.70886789958799]
サンプル間で共有されるセマンティックサブ空間において、リッチな情報をマイニングするためのサポートセットベースのマルチモーダル表現拡張(SMRE)モデルを提案する。
具体的には、サンプル間の基礎となる関係を学習し、意味的関連視覚要素を得るためのサポートセットを構築するためのサポートセット構築(SC)モジュールを提案する。
本研究では,SST(Semantic Space Transformation)モジュールを設計し,相対距離を制約し,マルチモーダルインタラクションを自己管理的に管理する。
論文 参考訳(メタデータ) (2022-05-19T03:40:29Z) - Learning Multimodal VAEs through Mutual Supervision [72.77685889312889]
MEMEは、相互監督を通じて暗黙的にモダリティ間の情報を結合する。
我々は、MEMEが、部分的および完全観察スキームの双方で標準メトリクスのベースラインを上回ることを実証する。
論文 参考訳(メタデータ) (2021-06-23T17:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。