論文の概要: VMSMO: Learning to Generate Multimodal Summary for Video-based News
Articles
- arxiv url: http://arxiv.org/abs/2010.05406v1
- Date: Mon, 12 Oct 2020 02:19:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 05:47:46.278765
- Title: VMSMO: Learning to Generate Multimodal Summary for Video-based News
Articles
- Title(参考訳): VMSMO:ビデオベースのニュース記事のマルチモーダル概要生成学習
- Authors: Mingzhe Li, Xiuying Chen, Shen Gao, Zhangming Chan, Dongyan Zhao and
Rui Yan
- Abstract要約: マルチモーダル出力(VMSMO)を用いたビデオベースマルチモーダル要約の課題を提案する。
このタスクの主な課題は、ビデオの時間的依存性と記事の意味を共同でモデル化することである。
本稿では,デュアルインタラクションモジュールとマルチモーダルジェネレータからなるDual-Interaction-based Multimodal Summarizer (DIMS)を提案する。
- 参考スコア(独自算出の注目度): 63.32111010686954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A popular multimedia news format nowadays is providing users with a lively
video and a corresponding news article, which is employed by influential news
media including CNN, BBC, and social media including Twitter and Weibo. In such
a case, automatically choosing a proper cover frame of the video and generating
an appropriate textual summary of the article can help editors save time, and
readers make the decision more effectively. Hence, in this paper, we propose
the task of Video-based Multimodal Summarization with Multimodal Output (VMSMO)
to tackle such a problem. The main challenge in this task is to jointly model
the temporal dependency of video with semantic meaning of article. To this end,
we propose a Dual-Interaction-based Multimodal Summarizer (DIMS), consisting of
a dual interaction module and multimodal generator. In the dual interaction
module, we propose a conditional self-attention mechanism that captures local
semantic information within video and a global-attention mechanism that handles
the semantic relationship between news text and video from a high level.
Extensive experiments conducted on a large-scale real-world VMSMO dataset show
that DIMS achieves the state-of-the-art performance in terms of both automatic
metrics and human evaluations.
- Abstract(参考訳): 現在、人気のあるマルチメディアニュースフォーマットは、CNN、BBC、Twitter、Weiboなどのソーシャルメディアに採用されているライブビデオとそれに対応するニュース記事を提供している。
この場合、ビデオの適切なカバーフレームを自動的に選択し、記事の適切なテキスト要約を生成することにより、編集者が時間を節約し、読者がより効果的に決定することができる。
そこで本稿では,マルチモーダル出力(VMSMO)を用いたビデオベースマルチモーダル要約の課題を提案する。
このタスクの主な課題は、ビデオの時間的依存性と記事の意味を共同でモデル化することである。
そこで本研究では,デュアルインタラクションモジュールとマルチモーダルジェネレータからなるDual-Interaction-based Multimodal Summarizer (DIMS)を提案する。
本稿では,ビデオ内の局所的な意味情報をキャプチャする条件付き自己認識機構と,高レベルからのニューステキストと映像のセマンティック関係を処理するグローバルアテンション機構を提案する。
大規模な実世界のVMSMOデータセットで実施された大規模な実験は、DIMSが自動メトリクスと人的評価の両方の観点から最先端のパフォーマンスを達成することを示している。
関連論文リスト
- Multi-Modal interpretable automatic video captioning [1.9874264019909988]
マルチモーダル・コントラッシブ・ロスを訓練した新しいビデオキャプション手法を提案する。
我々のアプローチは、これらのモダリティ間の依存関係を捉えるために設計されており、その結果、より正確で、従って関連するキャプションとなる。
論文 参考訳(メタデータ) (2024-11-11T11:12:23Z) - Tuning Large Multimodal Models for Videos using Reinforcement Learning from AI Feedback [38.708690624594794]
ビデオとテキストのマルチモーダルアライメントは、主にマルチモーダル命令・チューンデータのボリュームと品質が不足しているため、依然として困難である。
本稿では,AIフィードバックからの強化学習(Reinforcement Learning from AI Feedback, RLAIF)と呼ばれる,マルチモーダルAIシステムを用いた新たなアライメント戦略を提案する。
具体的には、嗜好フィードバックの生成中に、詳細な映像記述を文脈として提供することによって、文脈対応報酬モデルを提案する。
論文 参考訳(メタデータ) (2024-02-06T06:27:40Z) - MVBench: A Comprehensive Multi-modal Video Understanding Benchmark [63.14000659130736]
本稿では、MVBenchという総合的なマルチモーダルビデオ理解ベンチマークを紹介する。
まず、これらの時間的タスクを定義するための新しい静的-動的手法を提案する。
そして,タスク定義に従って,公開ビデオアノテーションを複数選択QAに自動的に変換し,各タスクを評価する。
論文 参考訳(メタデータ) (2023-11-28T17:59:04Z) - mPLUG-2: A Modularized Multi-modal Foundation Model Across Text, Image
and Video [89.19867891570945]
mPLUG-2は、マルチモーダル事前訓練のためのモジュール化された設計を備えた新しい統一パラダイムである。
モダリティ協力のための共通普遍加群を共有し、モダリティの絡み合いを扱うために異なるモダリティ加群を切り離す。
テキスト、画像、ビデオを含むすべてのモダリティの異なる理解タスクと生成タスクのために、異なるモジュールを選択することは柔軟です。
論文 参考訳(メタデータ) (2023-02-01T12:40:03Z) - TLDW: Extreme Multimodal Summarisation of News Videos [76.50305095899958]
TL;DW - Too Long; Didn't Watch のシナリオに対して,Xtreme Multimodal Summarisation with Multimodal Output (XMSMO)を導入する。
XMSMOは,映像と文書のペアを非常に短い長さの要約にまとめることを目的としており,その内容は1つの表紙フレームを視覚的要約として,1つの文をテキスト要約として構成する。
本手法は, 参照要約を使わずに, 最適輸送計画に基づく意味分布間の距離の観点から, 視覚的およびテキスト的カバレッジを最適化することにより, 訓練を行う。
論文 参考訳(メタデータ) (2022-10-16T08:19:59Z) - Semantics-Consistent Cross-domain Summarization via Optimal Transport
Alignment [80.18786847090522]
本稿では,視覚とテキストのセグメンテーションによる最適なトランスポートアライメントに基づくセマンティックス・コンスタントなクロスドメイン要約モデルを提案する。
提案手法を最近の3つのマルチモーダルデータセット上で評価し,高品質なマルチモーダル要約を作成する上での有効性を実証した。
論文 参考訳(メタデータ) (2022-10-10T14:27:10Z) - MHMS: Multimodal Hierarchical Multimedia Summarization [80.18786847090522]
視覚領域と言語領域を相互作用させることにより,マルチモーダル階層型マルチメディア要約(MHMS)フレームワークを提案する。
本手法は,ビデオとテキストのセグメンテーションと要約モジュールをそれぞれ含んでいる。
ドメイン間のアライメントの目的を最適な輸送距離で定式化し、代表とテキストの要約を生成する。
論文 参考訳(メタデータ) (2022-04-07T21:00:40Z) - See, Hear, Read: Leveraging Multimodality with Guided Attention for
Abstractive Text Summarization [14.881597737762316]
我々は,NDSS,ICML,NeurIPSなどの著名な学術カンファレンスのプレゼンテーションから収集した,様々な期間のビデオを用いた抽象テキスト要約のための最初の大規模データセットを紹介する。
次に,多モード変換器をベースとしたデコーダのみの言語モデルであるnameを提案し,テキスト要約タスクの様々な入力モードにおけるモーダル内およびモーダル間ダイナミクスを本質的にキャプチャする。
論文 参考訳(メタデータ) (2021-05-20T08:56:33Z) - GPT2MVS: Generative Pre-trained Transformer-2 for Multi-modal Video
Summarization [18.543372365239673]
提案モデルは,コンテキスト化された映像要約制御器,マルチモーダルアテンション機構,対話型アテンションネットワーク,映像要約生成器から構成される。
その結果, 最新手法と比較して, 精度5.88%, F1スコアが4.06%上昇し, このモデルが有効であることが示された。
論文 参考訳(メタデータ) (2021-04-26T10:50:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。