論文の概要: Human-Machine Cooperative Multimodal Learning Method for Cross-subject
Olfactory Preference Recognition
- arxiv url: http://arxiv.org/abs/2311.14426v1
- Date: Fri, 24 Nov 2023 11:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 15:10:23.317115
- Title: Human-Machine Cooperative Multimodal Learning Method for Cross-subject
Olfactory Preference Recognition
- Title(参考訳): クロスサブジェクト嗅覚嗜好認知のためのヒューマンマシン協調型マルチモーダル学習法
- Authors: Xiuxin Xia, Yuchen Guo, Yanwei Wang, Yuchao Yang, Yan Shi and Hong Men
- Abstract要約: 嗅覚脳波(EEG)は、嗅覚と人間の嗅覚嗜好に関連する個々の特徴を含む。
E-nose and olfactory EEG multimodal learning method を提案する。
- 参考スコア(独自算出の注目度): 11.566318118981453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Odor sensory evaluation has a broad application in food, clothing, cosmetics,
and other fields. Traditional artificial sensory evaluation has poor
repeatability, and the machine olfaction represented by the electronic nose
(E-nose) is difficult to reflect human feelings. Olfactory electroencephalogram
(EEG) contains odor and individual features associated with human olfactory
preference, which has unique advantages in odor sensory evaluation. However,
the difficulty of cross-subject olfactory EEG recognition greatly limits its
application. It is worth noting that E-nose and olfactory EEG are more
advantageous in representing odor information and individual emotions,
respectively. In this paper, an E-nose and olfactory EEG multimodal learning
method is proposed for cross-subject olfactory preference recognition. Firstly,
the olfactory EEG and E-nose multimodal data acquisition and preprocessing
paradigms are established. Secondly, a complementary multimodal data mining
strategy is proposed to effectively mine the common features of multimodal data
representing odor information and the individual features in olfactory EEG
representing individual emotional information. Finally, the cross-subject
olfactory preference recognition is achieved in 24 subjects by fusing the
extracted common and individual features, and the recognition effect is
superior to the state-of-the-art recognition methods. Furthermore, the
advantages of the proposed method in cross-subject olfactory preference
recognition indicate its potential for practical odor evaluation applications.
- Abstract(参考訳): 臭気感覚評価は、食品、衣服、化粧品、その他の分野に広く応用されている。
従来の人工感覚評価は再現性が低く、電子鼻(E-nose)で表される機械の嗅覚は人間の感情を反映することが難しい。
嗅覚脳波(EEG)には、嗅覚評価に特有の利点がある、人間の嗅覚嗜好に関連する匂いと個々の特徴が含まれている。
しかし、クロスオブジェクト嗅覚脳波認識の難しさは、その応用を著しく制限する。
E-noseと嗅覚脳波は、それぞれの匂い情報と個人の感情を表現する上でより有利である。
本稿では,E-nose and olfactory EEG multimodal learning法を提案する。
まず、嗅覚脳波とE-noseマルチモーダルデータ取得および前処理パラダイムを確立する。
次に,匂い情報を表すマルチモーダルデータの共通特徴と,感情情報を表す嗅覚脳波の個々の特徴を効果的にマイニングするための補完的マルチモーダルデータマイニング戦略を提案する。
最後に、抽出した共通特徴と個別特徴とを融合させることにより、24の被験者でクロスオブジェクト嗅覚嗜好認識を行い、その認識効果は最先端の認識方法よりも優れている。
さらに, クロスサブジェクト嗅覚嗜好認識における提案手法の利点は, 実用的匂い評価への応用の可能性を示している。
関連論文リスト
- Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - Emotion recognition based on multi-modal electrophysiology multi-head
attention Contrastive Learning [3.2536246345549538]
自己教師型コントラスト学習に基づくマルチモーダル感情認識手法ME-MHACLを提案する。
訓練された特徴抽出器をラベル付き電気生理学的信号に適用し、特徴融合に多頭部注意機構を用いる。
本手法は,感情認識タスクにおける既存のベンチマーク手法よりも優れ,個人間一般化能力に優れていた。
論文 参考訳(メタデータ) (2023-07-12T05:55:40Z) - Contrastive Learning of Subject-Invariant EEG Representations for
Cross-Subject Emotion Recognition [9.07006689672858]
本稿では、信頼度の高いクロスオブジェクト感情認識のためのISAのためのコントラスト学習法を提案する。
ISAは、異なる刺激に対して同じ刺激を受けた被験者間での脳波信号の類似性を最大化する。
脳波信号から物体間表現を学習するために,深部空間畳み込み層と時間畳み込み層を有する畳み込みニューラルネットワークを適用した。
論文 参考訳(メタデータ) (2021-09-20T14:13:45Z) - Attentive Cross-modal Connections for Deep Multimodal Wearable-based
Emotion Recognition [7.559720049837459]
本稿では、畳み込みニューラルネットワーク間で情報を共有するための、新しい注意深いクロスモーダル接続を提案する。
具体的には、EDAとECGの中間表現を共有することにより、感情分類を改善する。
実験の結果,提案手法は強いマルチモーダル表現を学習し,多くのベースライン法より優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-04T18:40:32Z) - Non-contact Pain Recognition from Video Sequences with Remote
Physiological Measurements Prediction [53.03469655641418]
痛み認識のための非接触方式で外観変化と生理的手がかりの両方を符号化する新しいマルチタスク学習フレームワークを提案する。
我々は、一般に利用可能な痛みデータベース上で、非接触痛認識の最先端性能を確立する。
論文 参考訳(メタデータ) (2021-05-18T20:47:45Z) - Detecting Human-Object Interaction via Fabricated Compositional Learning [106.37536031160282]
ヒューマンオブジェクトインタラクション(HOI)検出は、高レベルのシーン理解のための基本的なタスクです。
人間は珍しいまたは見えないHOIのサンプルを認識する非常に強力な構成知覚能力があります。
オープン長尾HOI検出の課題を解決するために,FCL(Fabricated Compositional Learning)を提案する。
論文 参考訳(メタデータ) (2021-03-15T08:52:56Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Investigating EEG-Based Functional Connectivity Patterns for Multimodal
Emotion Recognition [8.356765961526955]
本稿では, 強度, クラスタリング, 係数, 固有ベクトル中心性という3つの機能接続ネットワーク特性について検討する。
感情認識における脳波接続機能の識別能力は,3つの公開脳波データセットで評価される。
脳波の機能的接続特徴と眼球運動や生理的信号の特徴を組み合わせたマルチモーダル感情認識モデルを構築した。
論文 参考訳(メタデータ) (2020-04-04T16:51:56Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。