論文の概要: Grounding Emotional Descriptions to Electrovibration Haptic Signals
- arxiv url: http://arxiv.org/abs/2411.02118v1
- Date: Mon, 04 Nov 2024 14:30:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:38:13.331524
- Title: Grounding Emotional Descriptions to Electrovibration Haptic Signals
- Title(参考訳): 振動ハプティック信号に対する接地感情記述
- Authors: Guimin Hu, Zirui Zhao, Lukas Heilmann, Yasemin Vardar, Hasti Seifi,
- Abstract要約: 自由形式のユーザ言語は、触覚設計のためのリッチな感覚情報と感情情報を提供する。
感覚と感情のキーワードを抽出し、それらをセマンティッククラスタにグループ化する計算パイプラインを開発した。
提案するパイプラインは,触覚経験を解析するための計算手法の実現可能性を示す。
- 参考スコア(独自算出の注目度): 4.551032947977237
- License:
- Abstract: Designing and displaying haptic signals with sensory and emotional attributes can improve the user experience in various applications. Free-form user language provides rich sensory and emotional information for haptic design (e.g., ``This signal feels smooth and exciting''), but little work exists on linking user descriptions to haptic signals (i.e., language grounding). To address this gap, we conducted a study where 12 users described the feel of 32 signals perceived on a surface haptics (i.e., electrovibration) display. We developed a computational pipeline using natural language processing (NLP) techniques, such as GPT-3.5 Turbo and word embedding methods, to extract sensory and emotional keywords and group them into semantic clusters (i.e., concepts). We linked the keyword clusters to haptic signal features (e.g., pulse count) using correlation analysis. The proposed pipeline demonstrates the viability of a computational approach to analyzing haptic experiences. We discuss our future plans for creating a predictive model of haptic experience.
- Abstract(参考訳): 触覚信号の設計と表示は、様々なアプリケーションにおけるユーザエクスペリエンスを向上させることができる。
自由形式のユーザ言語は、触覚設計のためのリッチな感覚情報と感情情報を提供する(例: `` This signal feel smooth and exciting''')が、ユーザ記述と触覚信号(すなわち言語基盤)をリンクする作業はほとんどない。
このギャップに対処するため,12名のユーザが表面触覚(すなわち電気振動)ディスプレイ上で知覚される32信号の感覚を記述した。
我々は,自然言語処理(NLP)技術であるGPT-3.5 Turboや単語埋め込み手法を用いて,知覚的・感情的キーワードを抽出し,セマンティッククラスタ(概念)にグループ化する計算パイプラインを開発した。
相関解析を用いて,キーワードクラスタと触覚信号の特徴(例えばパルス数)を関連づけた。
提案するパイプラインは,触覚経験を解析するための計算手法の実現可能性を示す。
触覚体験の予測モデルを作成するための今後の計画について議論する。
関連論文リスト
- Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - EmoDiarize: Speaker Diarization and Emotion Identification from Speech
Signals using Convolutional Neural Networks [0.0]
本研究では,音声認識における深層学習技術の統合について検討する。
既存の話者ダイアリゼーションパイプラインと、畳み込みニューラルネットワーク(CNN)上に構築された感情識別モデルを組み合わせたフレームワークを導入する。
提案モデルでは,63%の非重み付き精度が得られ,音声信号中の感情状態を正確に同定する上で,顕著な効率性を示した。
論文 参考訳(メタデータ) (2023-10-19T16:02:53Z) - Transformer-Based Self-Supervised Learning for Emotion Recognition [0.0]
心電図(ECG)を感情認識に利用するトランスフォーマーモデルを提案する。
感情ラベル付きデータセットの比較的小さなサイズを克服するために,自己教師型学習を採用する。
AMIGOSの心電図信号を用いた感情認識の最先端性能を示す。
論文 参考訳(メタデータ) (2022-04-08T07:14:55Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Bridging between Cognitive Processing Signals and Linguistic Features
via a Unified Attentional Network [25.235060468310696]
本稿では,認知処理信号と言語的特徴との関連性を検討するためのデータ駆動手法を提案する。
我々は、埋め込み、注意、エンコーディング、予測層からなる統合された注意フレームワークを提案する。
提案するフレームワークは,単一の認知データセットを用いて,幅広い言語的特徴を検出するために利用できる。
論文 参考訳(メタデータ) (2021-12-16T12:25:11Z) - EEGminer: Discovering Interpretable Features of Brain Activity with
Learnable Filters [72.19032452642728]
本稿では,学習可能なフィルタと事前決定された特徴抽出モジュールからなる新しい識別可能なEEGデコーディングパイプラインを提案する。
我々は,SEEDデータセットおよび前例のない大きさの新たな脳波データセット上で,脳波信号からの感情認識に向けたモデルの有用性を実証する。
発見された特徴は、以前の神経科学の研究と一致し、音楽聴取中の左右の時間領域間の機能的接続プロファイルの顕著な相違など、新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-10-19T14:22:04Z) - DeepA: A Deep Neural Analyzer For Speech And Singing Vocoding [71.73405116189531]
本稿では,従来のボコーダで定義されている音声をエミュレートする入力音声から,F0と音節/音節/音節のエンコーディングを抽出するニューラルボコーダを提案する。
ディープ・ニューラル・アナライザは学習可能であるため、信号の再構成と操作がより正確であり、音声から歌への一般化が期待できる。
論文 参考訳(メタデータ) (2021-10-13T01:39:57Z) - CogAlign: Learning to Align Textual Neural Representations to Cognitive
Language Processing Signals [60.921888445317705]
自然言語処理モデルに認知言語処理信号を統合するためのCogAlignアプローチを提案する。
我々は、CogAlignが、パブリックデータセット上の最先端モデルよりも、複数の認知機能で大幅な改善を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-10T07:10:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。