論文の概要: Sequential Late Fusion Technique for Multi-modal Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2106.11473v1
- Date: Tue, 22 Jun 2021 01:32:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 04:36:40.728075
- Title: Sequential Late Fusion Technique for Multi-modal Sentiment Analysis
- Title(参考訳): マルチモーダル感情分析のための逐次遅延融合手法
- Authors: Debapriya Banerjee, Fotios Lygerakis, Fillia Makedon
- Abstract要約: 我々はMOSIデータセットからテキスト、オーディオ、視覚的モーダルティを利用する。
マルチヘッドアテンションLSTMネットワークを用いた新しい融合手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-modal sentiment analysis plays an important role for providing better
interactive experiences to users. Each modality in multi-modal data can provide
different viewpoints or reveal unique aspects of a user's emotional state. In
this work, we use text, audio and visual modalities from MOSI dataset and we
propose a novel fusion technique using a multi-head attention LSTM network.
Finally, we perform a classification task and evaluate its performance.
- Abstract(参考訳): マルチモーダル感情分析は,よりインタラクティブな体験をユーザに提供する上で重要な役割を果たす。
マルチモーダルデータのそれぞれのモダリティは、異なる視点を提供するか、ユーザの感情状態のユニークな側面を明らかにすることができる。
本研究では,MOSIデータセットからテキスト,音声,視覚的モダリティを抽出し,マルチヘッドアテンションLSTMネットワークを用いた新しい融合手法を提案する。
最後に,分類タスクを行い,その性能評価を行う。
関連論文リスト
- Joint Multimodal Transformer for Emotion Recognition in the Wild [49.735299182004404]
マルチモーダル感情認識(MMER)システムは、通常、単調なシステムよりも優れている。
本稿では,キーベースのクロスアテンションと融合するために,ジョイントマルチモーダルトランス (JMT) を利用するMMER法を提案する。
論文 参考訳(メタデータ) (2024-03-15T17:23:38Z) - Multimodal Prompt Transformer with Hybrid Contrastive Learning for
Emotion Recognition in Conversation [9.817888267356716]
会話におけるマルチモーダル感情認識(ERC)は2つの問題に直面している。
表現能力の強いモダリティに対して深部感情の手がかり抽出を行った。
特徴フィルタは、表現能力の弱いモダリティのためのマルチモーダルプロンプト情報として設計された。
MPTは、Transformerの各アテンション層にマルチモーダル融合情報を埋め込む。
論文 参考訳(メタデータ) (2023-10-04T13:54:46Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Revisiting Disentanglement and Fusion on Modality and Context in
Conversational Multimodal Emotion Recognition [81.2011058113579]
特徴の多様性と会話の文脈化は、特徴の絡み合いと融合の段階において、同時に適切にモデル化されるべきである。
マルチモーダル・コンテキスト統合のためのコントリビューション・アウェア・フュージョン・メカニズム(CFM)とコンテキスト・リフュージョン・メカニズム(CRM)を提案する。
我々のシステムは、新しい最先端のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2023-08-08T18:11:27Z) - Alternative Telescopic Displacement: An Efficient Multimodal Alignment Method [3.0903319879656084]
本稿では,マルチモーダル情報の融合に革命をもたらす機能アライメントに対する革新的なアプローチを提案する。
提案手法では,異なるモードをまたいだ特徴表現の遠隔的変位と拡張の新たな反復的プロセスを用いて,共有特徴空間内の一貫性のある統一表現を導出する。
論文 参考訳(メタデータ) (2023-06-29T13:49:06Z) - M2FNet: Multi-modal Fusion Network for Emotion Recognition in
Conversation [1.3864478040954673]
視覚,音声,テキストのモダリティから感情関連特徴を抽出するマルチモーダルフュージョンネットワーク(M2FNet)を提案する。
マルチヘッドアテンションに基づく融合機構を用いて、入力データの感情に富んだ潜在表現を結合する。
提案する特徴抽出器は,音声および視覚データから感情関連特徴を学習するために,適応的マージンに基づく新しい三重項損失関数を用いて訓練される。
論文 参考訳(メタデータ) (2022-06-05T14:18:58Z) - Multimodal Image Synthesis and Editing: The Generative AI Era [131.9569600472503]
マルチモーダル画像合成と編集は 近年 ホットな研究テーマになっている。
近年のマルチモーダル画像合成・編集の進歩を包括的に理解している。
ベンチマークデータセットと評価指標と,それに対応する実験結果について述べる。
論文 参考訳(メタデータ) (2021-12-27T10:00:16Z) - Encoder Fusion Network with Co-Attention Embedding for Referring Image
Segmentation [87.01669173673288]
本稿では,視覚的エンコーダをマルチモーダルな特徴学習ネットワークに変換するエンコーダ融合ネットワーク(EFN)を提案する。
EFNには、マルチモーダル機能の並列更新を実現するコアテンションメカニズムが組み込まれている。
4つのベンチマークデータセットによる実験結果から,提案手法がポストプロセッシングを伴わずに最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-05-05T02:27:25Z) - Targeted aspect based multimodal sentiment analysis:an attention capsule
extraction and multi-head fusion network [0.0]
目標とするアスペクトベースのマルチモーダル感情分析(TABMSA)を初めて提案します。
TABMSAのタスクに関する注意カプセル抽出およびマルチヘッド核融合ネットワーク(EF-Net)を考案する。
提案したモデルを手動アノテーション付き2つのデータセット上で評価する。
論文 参考訳(メタデータ) (2021-03-13T09:11:24Z) - MISA: Modality-Invariant and -Specific Representations for Multimodal
Sentiment Analysis [48.776247141839875]
本稿では,2つの異なる部分空間に各モダリティを投影する新しいフレームワーク MISA を提案する。
最初の部分空間はモダリティ不変(modality-invariant)であり、モダリティにまたがる表現はその共通点を学び、モダリティギャップを減少させる。
一般的な感情分析ベンチマークであるMOSIとMOSEIの実験は、最先端モデルよりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2020-05-07T15:13:23Z) - Multilogue-Net: A Context Aware RNN for Multi-modal Emotion Detection
and Sentiment Analysis in Conversation [2.588973722689844]
マルチモーダル感情検出および知覚分析は特に有用である。
マルチモーダル機能を扱う現在のシステムは、会話のコンテキストを活用・捉えない。
上述した欠点をすべて考慮し,エンドツーエンドのRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-19T16:21:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。