論文の概要: Using Voice and Biofeedback to Predict User Engagement during
Requirements Interviews
- arxiv url: http://arxiv.org/abs/2104.02410v1
- Date: Tue, 6 Apr 2021 10:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 13:49:08.155694
- Title: Using Voice and Biofeedback to Predict User Engagement during
Requirements Interviews
- Title(参考訳): 要求インタビューにおける音声とバイオフィードバックによるユーザエンゲージメント予測
- Authors: Alessio Ferrari, Thaide Huichapa, Paola Spoletini, Nicole Novielli,
Davide Fucci, Daniela Girardi
- Abstract要約: 本稿では,生理的特徴および音声的特徴の観点から生体データを用いて,ユーザエンゲージメントに関する情報とインタビューを補完することを提案する。
本アプローチは,empatica e4リストバンドを用いて,身体データを収集しながらユーザへインタビューすることで評価する。
その結果,生体データを用いた教師付き機械学習アルゴリズムの学習により,ユーザのエンゲージメントを予測することができた。
- 参考スコア(独自算出の注目度): 11.277063517143565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing users engagement is crucial for gathering feedback about the
features of a software product. In a market-driven context, current approaches
to collect and analyze users feedback are based on techniques leveraging
information extracted from product reviews and social media. These approaches
are hardly applicable in bespoke software development, or in contexts in which
one needs to gather information from specific users. In such cases, companies
need to resort to face-to-face interviews to get feedback on their products. In
this paper, we propose to utilize biometric data, in terms of physiological and
voice features, to complement interviews with information about the engagement
of the user on the discussed product-relevant topics. We evaluate our approach
by interviewing users while gathering their physiological data (i.e.,
biofeedback) using an Empatica E4 wristband, and capturing their voice through
the default audio-recorder of a common laptop. Our results show that we can
predict users' engagement by training supervised machine learning algorithms on
biometric data, and that voice features alone can be sufficiently effective.
The performance of the prediction algorithms is maximised when pre-processing
the training data with the synthetic minority oversampling technique (SMOTE).
The results of our work suggest that biofeedback and voice analysis can be used
to facilitate prioritization of requirements oriented to product improvement,
and to steer the interview based on users' engagement. Furthermore, the usage
of voice features can be particularly helpful for emotion-aware requirements
elicitation in remote communication, either performed by human analysts or
voice-based chatbots.
- Abstract(参考訳): ユーザエンゲージメントの獲得は、ソフトウェア製品の機能に関するフィードバックを集める上で極めて重要です。
市場主導の文脈では、ユーザーのフィードバックを収集し分析する現在のアプローチは、製品レビューやソーシャルメディアから抽出された情報を活用する技術に基づいている。
これらのアプローチは、専門的なソフトウェア開発や、特定のユーザから情報を集める必要があるコンテキストではほとんど適用できない。
そのような場合、企業は製品に対するフィードバックを得るために対面のインタビューに頼る必要がある。
本稿では,生体計測データを,生理的・音声的特徴の観点から活用し,製品関連トピックに対するユーザの関与に関する情報をインタビューに補完する手法を提案する。
本研究では,Empatica E4リストバンドを用いて生理的データ(バイオフィードバック)を収集しながらユーザをインタビューし,一般的なラップトップのオーディオレコーダを通じて音声をキャプチャすることで,そのアプローチを評価する。
その結果,生体データを用いた教師付き機械学習アルゴリズムの学習によってユーザのエンゲージメントを予測でき,音声機能だけで十分な効果が得られることがわかった。
学習データを合成マイノリティオーバーサンプリング技術(SMOTE)で前処理する際、予測アルゴリズムの性能を最大化する。
本研究の結果から,バイオフィードバックと音声分析は,製品改善指向の要件の優先順位付けや,ユーザのエンゲージメントに基づく面接の促進に有効であることが示唆された。
さらに、音声機能の利用は、人間の分析者や音声ベースのチャットボットによって行われるリモートコミュニケーションにおける感情認識要求に特に有用である。
関連論文リスト
- Learning from Emotions, Demographic Information and Implicit User
Feedback in Task-Oriented Document-Grounded Dialogues [59.516187851808375]
FEDIは、人口統計情報、ユーザ感情、暗黙のフィードバックを付加したタスク指向文書地上対話のための最初の英語対話データセットである。
FLAN-T5, GPT-2, LLaMA-2 を用いて行った実験から,これらのデータにより,タスク完了と実際の応答の整合性,ユーザの受容性が改善される可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-17T14:52:26Z) - Follow-on Question Suggestion via Voice Hints for Voice Assistants [29.531005346608215]
我々は,ユーザがフォローアップ質問をできるように,コンパクトで自然な音声ヒントで質問を提案する新しい課題に取り組む。
質問リストから音声ヒントを生成するために,シーケンス・ツー・シーケンス・トランスフォーマを用いたベースラインとアプローチを提案する。
以上の結果から,提案する質問を和らげるナイーブなアプローチが,音声のヒントに乏しいことが示唆された。
論文 参考訳(メタデータ) (2023-10-25T22:22:18Z) - Leveraging Implicit Feedback from Deployment Data in Dialogue [83.02878726357523]
本研究では,ユーザ間の自然な対話とデプロイモデルから学習することで,社会的会話エージェントの改善について検討する。
我々は、ユーザ応答長、感情、未来の人間の発話の反応などの信号を、収集された対話エピソードで活用する。
論文 参考訳(メタデータ) (2023-07-26T11:34:53Z) - User Simulation for Evaluating Information Access Systems [48.33512411880656]
インタラクティブな知能システムの有効性を評価することは 複雑な科学的課題です
本書は,評価に特化して設計されたユーザシミュレーション技術について,詳細な理解を提供する。
ユーザシミュレータを設計するための一般的なフレームワークと、検索エンジン、レコメンダシステム、会話アシスタントとのユーザインタラクションをシミュレートする特定のモデルとアルゴリズムの両方をカバーする。
論文 参考訳(メタデータ) (2023-06-14T14:54:06Z) - Talk the Walk: Synthetic Data Generation for Conversational Music
Recommendation [62.019437228000776]
本稿では,広く利用可能なアイテムコレクションにおいて,符号化された専門知識を活用することで,現実的な高品質な会話データを生成するTalkWalkを提案する。
人間の収集したデータセットで100万以上の多様な会話を生成します。
論文 参考訳(メタデータ) (2023-01-27T01:54:16Z) - Dehumanizing Voice Technology: Phonetic & Experiential Consequences of
Restricted Human-Machine Interaction [0.0]
我々は、要求が音声の収束と低音声の遅延を増大させ、最終的には消費者にとってより自然なタスク体験をもたらすことを示す。
スマートオブジェクトとの対話を開始するために必要な入力を変更することは、消費者の主観的経験と人間の声の客観的な音声的変化の両方において、体系的な変化を引き起こす証拠を提供する。
論文 参考訳(メタデータ) (2021-11-02T22:49:25Z) - Building a Noisy Audio Dataset to Evaluate Machine Learning Approaches
for Automatic Speech Recognition Systems [0.0]
この研究は、ノイズの多いオーディオのデータセットを構築する過程を、干渉による劣化したオーディオの特定のケースで提示することを目的としている。
また、このようなデータを評価に利用する分類器の初期結果を示し、認識者の学習プロセスでこのデータセットを使用することの利点を示す。
論文 参考訳(メタデータ) (2021-10-04T13:08:53Z) - Experiences with the Introduction of AI-based Tools for Moderation
Automation of Voice-based Participatory Media Forums [0.5243067689245634]
我々は、空白またはノイズの多い音声をフィルタリングするAIツールを導入し、音声認識を使ってテキストで音声メッセージを書き起こし、自然言語処理技術を使って音声書き起こしからメタデータを抽出する。
本稿では,これらのツールの導入による時間とコスト削減の点から,AIベースの自動化のワークフローへの受容性に対するモデレーターのフィードバックについて述べる。
我々の研究は、いくつかのルーチンタスクの自動化にAIを使用する場合のケーススタディを形成しており、特に、発展途上国における音声技術の使用に関わる他の研究者や実践者には特に関係がある。
論文 参考訳(メタデータ) (2021-08-09T17:50:33Z) - An Overview of Deep-Learning-Based Audio-Visual Speech Enhancement and
Separation [57.68765353264689]
音声強調と音声分離は関連する2つの課題である。
伝統的に、これらのタスクは信号処理と機械学習技術を使って取り組まれてきた。
ディープラーニングは強力なパフォーマンスを達成するために利用されています。
論文 参考訳(メタデータ) (2020-08-21T17:24:09Z) - Leveraging Multimodal Behavioral Analytics for Automated Job Interview
Performance Assessment and Feedback [0.5872014229110213]
行動的手がかりは人間のコミュニケーションや認知に重要な役割を果たす。
本稿では,インタビューシナリオにおける候補の分析を行うマルチモーダル分析フレームワークを提案する。
我々はこれらのマルチモーダルデータソースを用いて複合表現を構築し、機械学習分類器を訓練してクラスラベルを予測する。
論文 参考訳(メタデータ) (2020-06-14T14:20:42Z) - IART: Intent-aware Response Ranking with Transformers in
Information-seeking Conversation Systems [80.0781718687327]
我々は、情報探索会話におけるユーザ意図パターンを分析し、意図認識型ニューラルレスポンスランキングモデル「IART」を提案する。
IARTは、ユーザ意図モデリングと言語表現学習とTransformerアーキテクチャの統合の上に構築されている。
論文 参考訳(メタデータ) (2020-02-03T05:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。