論文の概要: AttX: Attentive Cross-Connections for Fusion of Wearable Signals in
Emotion Recognition
- arxiv url: http://arxiv.org/abs/2206.04625v1
- Date: Thu, 9 Jun 2022 17:18:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 17:50:28.416949
- Title: AttX: Attentive Cross-Connections for Fusion of Wearable Signals in
Emotion Recognition
- Title(参考訳): attx:感情認識におけるウェアラブル信号の融合のための注意クロスコネクション
- Authors: Anubhav Bhatti, Behnam Behinaein, Paul Hungler, Ali Etemad
- Abstract要約: クロスモーダル注意接続は、ウェアラブルデータからマルチモーダル表現学習のための新しい動的かつ効果的な技術である。
我々は、WASAD、SWELL-KW、CASEの3つの公共マルチモーダルウェアラブルデータセットについて広範な実験を行った。
提案手法は,最先端の手法よりも優れた,あるいは競争的な性能を示し,ベースラインのユニモーダル法や古典的マルチモーダル法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 15.21696076393078
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose cross-modal attentive connections, a new dynamic and effective
technique for multimodal representation learning from wearable data. Our
solution can be integrated into any stage of the pipeline, i.e., after any
convolutional layer or block, to create intermediate connections between
individual streams responsible for processing each modality. Additionally, our
method benefits from two properties. First, it can share information
uni-directionally (from one modality to the other) or bi-directionally. Second,
it can be integrated into multiple stages at the same time to further allow
network gradients to be exchanged in several touch-points. We perform extensive
experiments on three public multimodal wearable datasets, WESAD, SWELL-KW, and
CASE, and demonstrate that our method can effectively regulate and share
information between different modalities to learn better representations. Our
experiments further demonstrate that once integrated into simple CNN-based
multimodal solutions (2, 3, or 4 modalities), our method can result in superior
or competitive performance to state-of-the-art and outperform a variety of
baseline uni-modal and classical multimodal methods.
- Abstract(参考訳): ウェアラブルデータからマルチモーダル表現を学習するための新しい動的かつ効果的な手法であるクロスモーダル注意接続を提案する。
当社のソリューションは、パイプラインの任意のステージ、すなわち畳み込みレイヤやブロックの後に統合して、各モダリティを処理する個々のストリーム間の中間接続を生成することができます。
さらに,この手法は2つの特性の利点がある。
まず、情報を一方向(一方から他方へ)または双方向に共有することができる。
第二に、ネットワーク勾配を複数のタッチポイントで交換できるように、同時に複数のステージに統合することができる。
wesad, swell-kw, caseの3つの公開マルチモーダルウェアラブルデータセットについて広範な実験を行い, 異なるモダリティ間の情報を効果的に制御し共有し, より良い表現を学習できることを実証した。
さらに, 単純なCNNベースのマルチモーダル解(2, 3, 4モダリティ)に統合すると, この手法は最先端の手法よりも優れ, 様々な基本的ユニモーダル法や古典的マルチモーダル法より優れていることを示す。
関連論文リスト
- Multimodality Helps Few-Shot 3D Point Cloud Semantic Segmentation [61.91492500828508]
FS-PCS (Few-shot 3D point cloud segmentation) は、最小のサポートサンプルで新しいカテゴリを分割するモデルを一般化することを目的としている。
本稿では,テキストラベルと潜在的に利用可能な2次元画像モダリティを利用して,コストフリーのマルチモーダルFS-PCSセットアップを提案する。
トレーニングバイアスを軽減するため,テスト時間適応型クロスモーダルセグ(TACC)技術を提案する。
論文 参考訳(メタデータ) (2024-10-29T19:28:41Z) - Anchors Aweigh! Sail for Optimal Unified Multi-Modal Representations [16.036997801745905]
マルチモーダル学習は、機械学習モデルが多様なデータソースを融合し利用できるようにする上で重要な役割を果たす。
ImageBindのような最近のバインディング手法では、固定アンカーのモダリティを使用して、アンカーのモダル埋め込み空間内のマルチモーダルデータをアライメントする。
我々はCentroBindを提案する。CentroBindは、固定アンカーを必要としない、シンプルだが強力なアプローチである。
論文 参考訳(メタデータ) (2024-10-02T23:19:23Z) - Zoom and Shift are All You Need [0.0]
マルチモーダル情報の完全統合を実現する機能アライメント手法を提案する。
提案手法は,異なるモダリティから派生した特徴間の高レベルな相互作用を確実に捉えることができる。
論文 参考訳(メタデータ) (2024-06-13T07:09:41Z) - U3M: Unbiased Multiscale Modal Fusion Model for Multimodal Semantic Segmentation [63.31007867379312]
U3M: An Unbiased Multiscale Modal Fusion Model for Multimodal Semanticsを紹介する。
我々は,グローバルな特徴とローカルな特徴の効果的な抽出と統合を保証するために,複数のスケールで機能融合を採用している。
実験により,本手法は複数のデータセットにまたがって優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-24T08:58:48Z) - Multimodal Information Interaction for Medical Image Segmentation [24.024848382458767]
革新的マルチモーダル情報クロストランス(MicFormer)について紹介する。
あるモダリティから特徴を問合せし、対応する応答を別のモダリティから取り出し、バイモーダル特徴間の効果的なコミュニケーションを容易にする。
他のマルチモーダルセグメンテーション手法と比較して,本手法はそれぞれ2.83と4.23のマージンで優れていた。
論文 参考訳(メタデータ) (2024-04-25T07:21:14Z) - Unified Multi-modal Unsupervised Representation Learning for
Skeleton-based Action Understanding [62.70450216120704]
教師なしの事前訓練は骨格に基づく行動理解において大きな成功を収めた。
我々はUmURLと呼ばれる統一マルチモーダル非教師なし表現学習フレームワークを提案する。
UmURLは効率的な早期融合戦略を利用して、マルチモーダル機能を単一ストリームで共同でエンコードする。
論文 参考訳(メタデータ) (2023-11-06T13:56:57Z) - On Uni-Modal Feature Learning in Supervised Multi-Modal Learning [21.822251958013737]
マルチモーダルデータの特徴(つまり学習された表現)を,1)ユニモーダルな特徴と2)相互モーダルな相互作用からしか学べないペア化された特徴にまとめる。
簡単な誘導戦略により、様々なマルチモーダルデータセット上の他の複雑なレイトフュージョン法や中間フュージョン法に匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-05-02T07:15:10Z) - Multi-scale Cooperative Multimodal Transformers for Multimodal Sentiment
Analysis in Videos [58.93586436289648]
マルチモーダル感情分析のためのマルチスケール協調型マルチモーダルトランス (MCMulT) アーキテクチャを提案する。
本モデルは,非整合型マルチモーダル列に対する既存手法よりも優れ,整合型マルチモーダル列に対する強い性能を有する。
論文 参考訳(メタデータ) (2022-06-16T07:47:57Z) - Channel Exchanging Networks for Multimodal and Multitask Dense Image
Prediction [125.18248926508045]
本稿では,マルチモーダル融合とマルチタスク学習の両方に適用可能な,自己適応的でパラメータフリーなチャネル交換ネットワーク(CEN)を提案する。
CENは異なるモダリティのワーク間でチャネルを動的に交換する。
濃密な画像予測を応用するために、CENの有効性は4つの異なるシナリオで検証される。
論文 参考訳(メタデータ) (2021-12-04T05:47:54Z) - Learning Deep Multimodal Feature Representation with Asymmetric
Multi-layer Fusion [63.72912507445662]
本稿では,マルチモーダルな特徴を複数の層に融合する,コンパクトで効果的なフレームワークを提案する。
我々は、エンコーダ内のモダリティ固有のバッチ正規化層を単に維持するだけで、共有シングルネットワーク内でマルチモーダル機能を学習できることを検証する。
次に,マルチモーダルな特徴を段階的に活用できる双方向多層融合方式を提案する。
論文 参考訳(メタデータ) (2021-08-11T03:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。