論文の概要: Towards Understanding Confusion and Affective States Under Communication
Failures in Voice-Based Human-Machine Interaction
- arxiv url: http://arxiv.org/abs/2207.07693v1
- Date: Fri, 15 Jul 2022 18:32:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 15:16:44.040727
- Title: Towards Understanding Confusion and Affective States Under Communication
Failures in Voice-Based Human-Machine Interaction
- Title(参考訳): 音声・機械インタラクションにおけるコミュニケーション障害下の混乱と感情状態の理解に向けて
- Authors: Sujeong Kim, Abhinav Garlapati, Jonah Lubin, Amir Tamrakar, Ajay
Divakaran
- Abstract要約: 本稿では,音声に基づく人間と機械のインタラクションにおけるユーザの感情状態を理解するための2つの研究について述べる。
研究は,(1)音声ベースの仮想エージェントとのコミュニケーションに関連する2つのタスクから成っている。(1) 機械に話しかけ,機械が何を言っているかを理解すること,(2) 参加者がパズルや謎を解くが,機械への回答を口頭で説明するよう求められる非コミュニケーション関連,問題解決タスクである。
- 参考スコア(独自算出の注目度): 8.602681427083553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a series of two studies conducted to understand user's affective
states during voice-based human-machine interactions. Emphasis is placed on the
cases of communication errors or failures. In particular, we are interested in
understanding "confusion" in relation with other affective states. The studies
consist of two types of tasks: (1) related to communication with a voice-based
virtual agent: speaking to the machine and understanding what the machine says,
(2) non-communication related, problem-solving tasks where the participants
solve puzzles and riddles but are asked to verbally explain the answers to the
machine. We collected audio-visual data and self-reports of affective states of
the participants. We report results of two studies and analysis of the
collected data. The first study was analyzed based on the annotator's
observation, and the second study was analyzed based on the self-report.
- Abstract(参考訳): 本稿では,音声に基づく人間と機械のインタラクションにおけるユーザの感情状態を理解するための2つの研究について述べる。
コミュニケーションエラーや障害のケースに重点が置かれている。
特に「融合」を他の情緒的状態と関連づけて理解することに関心がある。
本研究は,(1)音声ベースの仮想エージェントとのコミュニケーションに関連する2つのタスク : 機械に話し,機械が何を言っているのか理解すること,(2) 参加者がパズルや謎を解きながら,その答えを口頭で説明することを求める非コミュニケーション的問題解決タスク,の2つからなる。
参加者の情緒状態の視聴覚データと自己報告を収集した。
収集したデータの2つの研究結果と分析結果を報告する。
第1の研究では注釈者の観察に基づいて分析され,第2の研究では自己報告に基づいて分析された。
関連論文リスト
- Analysing Explanation-Related Interactions in Collaborative Perception-Cognition-Communication-Action [1.33828830691279]
我々は、シミュレーションされた緊急対応タスクを完了させるために協力する人間同士のコミュニケーションを分析し、分類する。
ほとんどの説明関連メッセージは、決定や行動の明確化を求めている。
論文 参考訳(メタデータ) (2024-11-19T13:07:04Z) - A Novel Labeled Human Voice Signal Dataset for Misbehavior Detection [0.7223352886780369]
本研究は,音声認識のための自動学習システムにおける音声トーンと配信の重要性を強調した。
これは、人間の行動が音声信号の知覚と分類に与える影響を解明することにより、音声信号解析の幅広い分野に寄与する。
論文 参考訳(メタデータ) (2024-06-28T18:55:07Z) - The timing bottleneck: Why timing and overlap are mission-critical for
conversational user interfaces, speech recognition and dialogue systems [0.11470070927586018]
対話型および多言語対応のための5つの主要な商用ASRシステムの評価を行った。
6言語での自然な会話データに対する単語誤り率の差は小さく、重複は依然として重要な課題である。
本研究は,対話型音声技術の構築に最も注意を要する現象を同定し,会話型ASRの現状の評価,多次元誤り解析と評価に寄与することを支援する。
論文 参考訳(メタデータ) (2023-07-28T11:38:05Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Expanding the Role of Affective Phenomena in Multimodal Interaction
Research [57.069159905961214]
マルチモーダルインタラクション, 感情計算, 自然言語処理において, 選ばれたカンファレンスから16,000以上の論文を調査した。
本論文では,感情関連論文910を同定し,情緒現象の役割について分析した。
我々は、人間の社会的行動や認知状態の機械的理解を高めるために、AIシステムによって感情と感情の予測がどのように使用されるかについて、限られた研究結果を得た。
論文 参考訳(メタデータ) (2023-05-18T09:08:39Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Question-Interlocutor Scope Realized Graph Modeling over Key Utterances
for Dialogue Reading Comprehension [61.55950233402972]
本稿では,対話読解のためのキーワード抽出手法を提案する。
複数の連続した発話によって形成された単位に対して予測を行い、より多くの回答を含む発話を実現する。
発話のテキスト上に構築されたグラフとして,質問-対話者スコープ実現グラフ(QuISG)モデルを提案する。
論文 参考訳(メタデータ) (2022-10-26T04:00:42Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。