論文の概要: M-SENA: An Integrated Platform for Multimodal Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2203.12441v1
- Date: Wed, 23 Mar 2022 14:28:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 16:35:11.636269
- Title: M-SENA: An Integrated Platform for Multimodal Sentiment Analysis
- Title(参考訳): M-SENA:マルチモーダル感性分析のための統合プラットフォーム
- Authors: Huisheng Mao and Ziqi Yuan and Hua Xu and Wenmeng Yu and Yihe Liu and
Kai Gao
- Abstract要約: M-SENAはMultimodal Sentiment Analysisのオープンソースプラットフォームである。
データ管理、特徴抽出、モデルトレーニング、結果分析モジュールで構成される、完全にモジュール化されたビデオ感情分析フレームワークを備えている。
- 参考スコア(独自算出の注目度): 15.191374872793759
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: M-SENA is an open-sourced platform for Multimodal Sentiment Analysis. It aims
to facilitate advanced research by providing flexible toolkits, reliable
benchmarks, and intuitive demonstrations. The platform features a fully modular
video sentiment analysis framework consisting of data management, feature
extraction, model training, and result analysis modules. In this paper, we
first illustrate the overall architecture of the M-SENA platform and then
introduce features of the core modules. Reliable baseline results of different
modality features and MSA benchmarks are also reported. Moreover, we use model
evaluation and analysis tools provided by M-SENA to present intermediate
representation visualization, on-the-fly instance test, and generalization
ability test results. The source code of the platform is publicly available at
https://github.com/thuiar/M-SENA.
- Abstract(参考訳): M-SENAはMultimodal Sentiment Analysisのオープンソースプラットフォームである。
柔軟なツールキット、信頼できるベンチマーク、直感的なデモを提供することで、高度な研究を促進することを目指している。
このプラットフォームは、データ管理、特徴抽出、モデルトレーニング、結果分析モジュールからなる、完全にモジュール化されたビデオ感情分析フレームワークを備えている。
本稿ではまず,M-SENAプラットフォーム全体のアーキテクチャを説明し,コアモジュールの機能を紹介する。
異なるモダリティ特徴とMSAベンチマークの信頼性の高いベースライン結果も報告されている。
さらに、m-senaが提供するモデル評価分析ツールを用いて、中間表現の可視化、オンザフライインスタンステスト、一般化能力テスト結果を表示する。
プラットフォームのソースコードはhttps://github.com/thuiar/M-SENAで公開されている。
関連論文リスト
- GUI Agents with Foundation Models: A Comprehensive Survey [52.991688542729385]
この調査は(M)LLMベースのGUIエージェントに関する最近の研究を集約する。
データ、フレームワーク、アプリケーションにおける重要なイノベーションを強調します。
本稿では, (M)LLM ベースの GUI エージェントの分野におけるさらなる発展を期待する。
論文 参考訳(メタデータ) (2024-11-07T17:28:10Z) - Utilizing Large Language Models for Event Deconstruction to Enhance Multimodal Aspect-Based Sentiment Analysis [2.1329326061804816]
本稿では,イベント分解のためのLarge Language Models (LLMs)を導入し,マルチモーダル・アスペクト・ベース・センチメント分析(MABSA-RL)のための強化学習フレームワークを提案する。
実験の結果,MABSA-RLは2つのベンチマークデータセットにおいて既存手法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-18T03:40:45Z) - A Large-Scale Evaluation of Speech Foundation Models [110.95827399522204]
音声処理ユニバーサルパフォーマンスベンチマーク(SUPERB)を構築し,基礎モデルパラダイムの有効性について検討する。
凍結基盤モデルを用いてSUPERBにおける音声処理タスクに対処する統合マルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T00:03:16Z) - UltraEval: A Lightweight Platform for Flexible and Comprehensive Evaluation for LLMs [74.1976921342982]
本稿では,ユーザフレンドリな評価フレームワークであるUltraEvalを紹介し,その軽量性,包括性,モジュール性,効率性を特徴とする。
その結果のコンポーザビリティにより、統一された評価ワークフロー内で、さまざまなモデル、タスク、プロンプト、ベンチマーク、メトリクスを自由に組み合わせることができる。
論文 参考訳(メタデータ) (2024-04-11T09:17:12Z) - Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - Video-Bench: A Comprehensive Benchmark and Toolkit for Evaluating
Video-based Large Language Models [81.84810348214113]
ビデオベースの大規模言語モデル(Video-LLMs)が最近導入され、認識と理解の基本的な改善と多様なユーザからの問い合わせの両方をターゲットにしている。
このようなモデルの開発を導くため、堅牢で包括的な評価システムの構築が重要となる。
本稿では,ビデオLLMの評価に特化して設計されたツールキットとともに,新しい総合的なベンチマークであるtextitVideo-Benchを提案する。
論文 参考訳(メタデータ) (2023-11-27T18:59:58Z) - Named Entity and Relation Extraction with Multi-Modal Retrieval [51.660650522630526]
マルチモーダルな名前付きエンティティ認識(NER)と関係抽出(RE)は、関連画像情報を活用してNERとREの性能を向上させることを目的としている。
新たなマルチモーダル検索フレームワーク(MoRe)を提案する。
MoReはテキスト検索モジュールと画像ベースの検索モジュールを含み、入力されたテキストと画像の関連知識をそれぞれ知識コーパスで検索する。
論文 参考訳(メタデータ) (2022-12-03T13:11:32Z) - Video-based Cross-modal Auxiliary Network for Multimodal Sentiment
Analysis [16.930624128228658]
音声特徴マップモジュールとクロスモーダル選択モジュールから構成されるビデオベースクロスモーダル補助ネットワーク(VCAN)を提案する。
VCANは、マルチモーダル感情分析の分類精度を向上させる最先端の手法よりもはるかに優れている。
論文 参考訳(メタデータ) (2022-08-30T02:08:06Z) - Support-set based Multi-modal Representation Enhancement for Video
Captioning [121.70886789958799]
サンプル間で共有されるセマンティックサブ空間において、リッチな情報をマイニングするためのサポートセットベースのマルチモーダル表現拡張(SMRE)モデルを提案する。
具体的には、サンプル間の基礎となる関係を学習し、意味的関連視覚要素を得るためのサポートセットを構築するためのサポートセット構築(SC)モジュールを提案する。
本研究では,SST(Semantic Space Transformation)モジュールを設計し,相対距離を制約し,マルチモーダルインタラクションを自己管理的に管理する。
論文 参考訳(メタデータ) (2022-05-19T03:40:29Z) - MM-FSOD: Meta and metric integrated few-shot object detection [14.631208179789583]
メトリクス学習とメタラーニングを統合した効果的なオブジェクト検出フレームワーク(MM-FSOD)を提案する。
我々のモデルは、トレーニングサンプルにない新しいカテゴリを正確に認識できるクラスに依存しない検出モデルである。
論文 参考訳(メタデータ) (2020-12-30T14:02:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。