論文の概要: RethinkingTMSC: An Empirical Study for Target-Oriented Multimodal
Sentiment Classification
- arxiv url: http://arxiv.org/abs/2310.09596v2
- Date: Sat, 23 Dec 2023 12:48:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 21:41:57.149609
- Title: RethinkingTMSC: An Empirical Study for Target-Oriented Multimodal
Sentiment Classification
- Title(参考訳): rethinkingtmsc:ターゲット指向マルチモーダル感情分類の実証的研究
- Authors: Junjie Ye, Jie Zhou, Junfeng Tian, Rui Wang, Qi Zhang, Tao Gui,
Xuanjing Huang
- Abstract要約: 目的指向型マルチモーダル感性分類(TMSC)は,学者の間でも注目されている。
この問題の原因を明らかにするために,データセットの広範な実験的評価と詳細な分析を行う。
- 参考スコア(独自算出の注目度): 70.9087014537896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Target-oriented Multimodal Sentiment Classification (TMSC) has
gained significant attention among scholars. However, current multimodal models
have reached a performance bottleneck. To investigate the causes of this
problem, we perform extensive empirical evaluation and in-depth analysis of the
datasets to answer the following questions: Q1: Are the modalities equally
important for TMSC? Q2: Which multimodal fusion modules are more effective? Q3:
Do existing datasets adequately support the research? Our experiments and
analyses reveal that the current TMSC systems primarily rely on the textual
modality, as most of targets' sentiments can be determined solely by text.
Consequently, we point out several directions to work on for the TMSC task in
terms of model design and dataset construction. The code and data can be found
in https://github.com/Junjie-Ye/RethinkingTMSC.
- Abstract(参考訳): 近年,ターゲット指向型マルチモーダル感性分類 (TMSC) が注目されている。
しかし、現在のマルチモーダルモデルはパフォーマンスボトルネックに達している。
この問題の原因を調査するために、データセットの広範な実験的評価と詳細な分析を行い、以下の質問に答える。
Q2: どのマルチモーダル融合モジュールがより効果的か?
Q3: 既存のデータセットは研究を適切にサポートしていますか?
我々の実験と分析により、現在のtmscシステムは主にテキストモダリティに依存しており、ターゲットの感情の大部分はテキストのみによって決定できることが明らかとなった。
そこで本研究では,モデル設計とデータセット構築の観点から,TMSCタスクの取り組み方について述べる。
コードとデータはhttps://github.com/Junjie-Ye/RethinkingTMSCにある。
関連論文リスト
- SceMQA: A Scientific College Entrance Level Multimodal Question
Answering Benchmark [42.91902601376494]
本稿では,SceMQAについて紹介する。SceMQAは,大学入学レベルでの科学的マルチモーダル質問応答のための新しいベンチマークである。
SceMQAは数学、物理学、化学、生物学などの中核的な科学分野に焦点を当てている。
複数選択と自由応答の混在を特徴とし、AIモデルの能力を総合的に評価する。
論文 参考訳(メタデータ) (2024-02-06T19:16:55Z) - Enhancing Human-like Multi-Modal Reasoning: A New Challenging Dataset
and Comprehensive Framework [51.44863255495668]
マルチモーダル推論は、人間のような知性を示す人工知能システムの追求において重要な要素である。
提案するマルチモーダル推論(COCO-MMR)データセットは,オープンエンド質問の集合を包含する新しいデータセットである。
画像とテキストエンコーダを強化するために,マルチホップ・クロスモーダル・アテンションや文レベルのコントラスト学習などの革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T08:58:25Z) - Does a Technique for Building Multimodal Representation Matter? --
Comparative Analysis [0.0]
マルチモーダル表現を構築するためのテクニックの選択は、可能な限り高いモデルの性能を得るために不可欠であることを示す。
Amazon Reviews、MovieLens25M、MovieLens1Mの3つのデータセットで実験が行われる。
論文 参考訳(メタデータ) (2022-06-09T21:30:10Z) - Exploring Neural Models for Query-Focused Summarization [74.41256438059256]
クエリ中心の要約(QFS)に対するニューラルネットワークの体系的な探索を行う。
本稿では,QMSumデータセットの最先端性能を最大3.38ROUGE-1,3.72ROUGE-2,3.28ROUGE-Lのマージンで達成する2つのモデル拡張を提案する。
論文 参考訳(メタデータ) (2021-12-14T18:33:29Z) - Multi-Task Hierarchical Learning Based Network Traffic Analytics [18.04195092141071]
約1.3Mのラベル付きフローを含む3つのオープンデータセットを提示する。
我々は、マルウェア検出とアプリケーション分類の両方を含む、ネットワークトラフィック分析の幅広い側面に焦点を当てる。
成長を続けるにつれて、データセットはAI駆動の再現可能なネットワークフロー分析研究の共通基盤として機能することを期待しています。
論文 参考訳(メタデータ) (2021-06-05T02:25:59Z) - Wizard of Search Engine: Access to Information Through Conversations
with Search Engines [58.53420685514819]
我々は3つの側面からCISの研究を促進するために努力している。
目的検出(ID)、キーフレーズ抽出(KE)、行動予測(AP)、クエリ選択(QS)、通過選択(PS)、応答生成(RG)の6つのサブタスクでCIS用のパイプラインを定式化する。
検索エンジンのウィザード(WISE)と呼ばれるベンチマークデータセットをリリースし、CISのすべての側面について包括的かつ詳細な調査を可能にします。
論文 参考訳(メタデータ) (2021-05-18T06:35:36Z) - Data Augmentation for Abstractive Query-Focused Multi-Document
Summarization [129.96147867496205]
2つのQMDSトレーニングデータセットを提示し,2つのデータ拡張手法を用いて構築する。
これらの2つのデータセットは相補的な性質を持ち、すなわちQMDSCNNは実際のサマリを持つが、クエリはシミュレートされる。
組み合わせたデータセット上にエンドツーエンドのニューラルネットワークモデルを構築し、DUCデータセットに最新の転送結果をもたらします。
論文 参考訳(メタデータ) (2021-03-02T16:57:01Z) - MISA: Modality-Invariant and -Specific Representations for Multimodal
Sentiment Analysis [48.776247141839875]
本稿では,2つの異なる部分空間に各モダリティを投影する新しいフレームワーク MISA を提案する。
最初の部分空間はモダリティ不変(modality-invariant)であり、モダリティにまたがる表現はその共通点を学び、モダリティギャップを減少させる。
一般的な感情分析ベンチマークであるMOSIとMOSEIの実験は、最先端モデルよりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2020-05-07T15:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。