論文の概要: Leveraging Audio Gestalt to Predict Media Memorability
- arxiv url: http://arxiv.org/abs/2012.15635v1
- Date: Thu, 31 Dec 2020 14:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 23:36:18.395635
- Title: Leveraging Audio Gestalt to Predict Media Memorability
- Title(参考訳): オーディオゲシュタルトによるメディアの記憶可能性予測
- Authors: Lorin Sweeney, Graham Healy, Alan F. Smeaton
- Abstract要約: 記憶力は、空白に何をもたらすか、そして心の奥深くに何をもたらすかを決定する。
MediaEval 2020のPredicting Media Memorabilityタスクは、ビデオの記憶可能性を自動的に予測するタスクを設定することによって、メディアの記憶可能性の問題に対処することを目指しています。
我々のアプローチは、視覚的、意味的、聴覚的特徴を組み合わせたマルチモーダル深層学習に基づくレイトフュージョンである。
- 参考スコア(独自算出の注目度): 1.8506048493564673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Memorability determines what evanesces into emptiness, and what worms its way
into the deepest furrows of our minds. It is the key to curating more
meaningful media content as we wade through daily digital torrents. The
Predicting Media Memorability task in MediaEval 2020 aims to address the
question of media memorability by setting the task of automatically predicting
video memorability. Our approach is a multimodal deep learning-based late
fusion that combines visual, semantic, and auditory features. We used audio
gestalt to estimate the influence of the audio modality on overall video
memorability, and accordingly inform which combination of features would best
predict a given video's memorability scores.
- Abstract(参考訳): 記憶力は、空白に何をもたらすか、そして心の奥深くに何をもたらすかを決定する。
毎日のデジタルトレントを歩きながら、より意味のあるメディアコンテンツをキュレートする鍵だ。
MediaEval 2020の予測メディア記憶可能性タスクは、自動的にビデオ記憶可能性を予測するタスクを設定することで、メディア記憶可能性の問題に対処することを目的としている。
我々のアプローチは、視覚的、意味的、聴覚的特徴を組み合わせたマルチモーダル深層学習に基づくレイトフュージョンである。
音声ジェスチャーを用いて,音声のモダリティがビデオ全体の記憶可能性に与える影響を推定し,どの特徴の組み合わせがビデオの記憶可能性スコアを最もよく予測するかを知らせた。
関連論文リスト
- Exploring the Role of Audio in Video Captioning [59.679122191706426]
本稿では,キャプションの音響モダリティの可能性をフル活用することを目的とした音声視覚フレームワークを提案する。
本稿では,音声とビデオ間の情報交換を改善するため,新たなローカル・グローバル融合機構を提案する。
論文 参考訳(メタデータ) (2023-06-21T20:54:52Z) - A Video Is Worth 4096 Tokens: Verbalize Videos To Understand Them In
Zero Shot [67.00455874279383]
そこで本研究では,自然言語による記述を生成するために長編動画を音声化し,生成したストーリーの映像理解タスクを実行することを提案する。
提案手法は,ゼロショットであるにもかかわらず,ビデオ理解のための教師付きベースラインよりもはるかに優れた結果が得られる。
ストーリー理解ベンチマークの欠如を緩和するため,我々は,説得戦略の識別に関する計算社会科学における重要な課題に関する最初のデータセットを公開している。
論文 参考訳(メタデータ) (2023-05-16T19:13:11Z) - Predicting emotion from music videos: exploring the relative
contribution of visual and auditory information to affective responses [0.0]
本稿では、感情的マルチメディアコンテンツ分析のための新しいデータセットであるMusicVideos(MuVi)を紹介する。
データは、音楽、視覚、オーディオヴィジュアルの3つの条件で、参加者に音楽映像を提示することで収集された。
論文 参考訳(メタデータ) (2022-02-19T07:36:43Z) - MERLOT Reserve: Neural Script Knowledge through Vision and Language and
Sound [90.1857707251566]
MERLOT Reserveは、時間とともに動画を共同で表現するモデルである。
我々は、テキストとオーディオのスニペットをMASKトークンに置き換え、正しいマスクアウトスニペットを選択して学習する。
私たちの目標は代替手段よりも早く学習し、大規模に機能します。
論文 参考訳(メタデータ) (2022-01-07T19:00:21Z) - Spoken Moments: Learning Joint Audio-Visual Representations from Video
Descriptions [75.77044856100349]
我々は、異なるイベントの広い範囲を描写するユニークな短いビデオに起因する500k話されたキャプションのSpoken Momentsデータセットを提示します。
AMMアプローチは一貫して結果を改善し、Spoken Momentsデータセットで訓練されたモデルは、他のビデオキャプションデータセットで訓練されたモデルよりも汎用性が高いことを示しています。
論文 参考訳(メタデータ) (2021-05-10T16:30:46Z) - The Influence of Audio on Video Memorability with an Audio Gestalt
Regulated Video Memorability System [1.8506048493564673]
音声がハイレベルな音声機能に富んだビデオ認識の覚醒性を促進することが示唆される証拠を見いだす。
本稿では,映像の音声が短期的認識能力に与える影響を推定するために,音声ジェスチャーを用いたマルチモーダル深層学習に基づくレイトフュージョンシステムを提案する。
我々は,memento10kの短期映像記憶性データセットを用いた音声ゲシュタルトベースシステムの性能評価を行った。
論文 参考訳(メタデータ) (2021-04-23T12:53:33Z) - Multi-modal Ensemble Models for Predicting Video Memorability [3.8367329188121824]
本研究は,メディアの記憶可能性を予測するための特徴として,抽出音声埋め込みの有効性と高一般化性を紹介する。
論文 参考訳(メタデータ) (2021-02-01T21:16:52Z) - Learning Speech Representations from Raw Audio by Joint Audiovisual
Self-Supervision [63.564385139097624]
生音声波形から自己教師付き音声表現を学習する手法を提案する。
音声のみの自己スーパービジョン(情報的音響属性の予測)と視覚的自己スーパービジョン(音声から発話顔を生成する)を組み合わせることで生音声エンコーダを訓練する。
本研究は,音声表現学習におけるマルチモーダル・セルフ・スーパービジョンの可能性を示すものである。
論文 参考訳(メタデータ) (2020-07-08T14:07:06Z) - "Notic My Speech" -- Blending Speech Patterns With Multimedia [65.91370924641862]
音声認識と理解における視点依存と視覚的重要性の両方をモデル化するための視点時間的注意機構を提案する。
提案手法は, ビセム誤差率において, 既存の作業よりも4.99%優れていた。
モデルでは,多視点音声に対する理解と人間の知覚との間に強い相関関係があることが示されている。
論文 参考訳(メタデータ) (2020-06-12T06:51:55Z) - Audio Summarization with Audio Features and Probability Distribution
Divergence [1.0587107940165885]
音声特徴量と分布のばらつきの確率に基づく音声要約に着目した。
本手法は,抽出的要約手法に基づいて,時間しきい値に達するまで最も関連性の高いセグメントを選択することを目的としている。
論文 参考訳(メタデータ) (2020-01-20T13:10:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。