論文の概要: Using Voice and Biofeedback to Predict User Engagement during
Requirements Interviews
- arxiv url: http://arxiv.org/abs/2104.02410v1
- Date: Tue, 6 Apr 2021 10:34:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 13:49:08.155694
- Title: Using Voice and Biofeedback to Predict User Engagement during
Requirements Interviews
- Title(参考訳): 要求インタビューにおける音声とバイオフィードバックによるユーザエンゲージメント予測
- Authors: Alessio Ferrari, Thaide Huichapa, Paola Spoletini, Nicole Novielli,
Davide Fucci, Daniela Girardi
- Abstract要約: 本稿では,生理的特徴および音声的特徴の観点から生体データを用いて,ユーザエンゲージメントに関する情報とインタビューを補完することを提案する。
本アプローチは,empatica e4リストバンドを用いて,身体データを収集しながらユーザへインタビューすることで評価する。
その結果,生体データを用いた教師付き機械学習アルゴリズムの学習により,ユーザのエンゲージメントを予測することができた。
- 参考スコア(独自算出の注目度): 11.277063517143565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing users engagement is crucial for gathering feedback about the
features of a software product. In a market-driven context, current approaches
to collect and analyze users feedback are based on techniques leveraging
information extracted from product reviews and social media. These approaches
are hardly applicable in bespoke software development, or in contexts in which
one needs to gather information from specific users. In such cases, companies
need to resort to face-to-face interviews to get feedback on their products. In
this paper, we propose to utilize biometric data, in terms of physiological and
voice features, to complement interviews with information about the engagement
of the user on the discussed product-relevant topics. We evaluate our approach
by interviewing users while gathering their physiological data (i.e.,
biofeedback) using an Empatica E4 wristband, and capturing their voice through
the default audio-recorder of a common laptop. Our results show that we can
predict users' engagement by training supervised machine learning algorithms on
biometric data, and that voice features alone can be sufficiently effective.
The performance of the prediction algorithms is maximised when pre-processing
the training data with the synthetic minority oversampling technique (SMOTE).
The results of our work suggest that biofeedback and voice analysis can be used
to facilitate prioritization of requirements oriented to product improvement,
and to steer the interview based on users' engagement. Furthermore, the usage
of voice features can be particularly helpful for emotion-aware requirements
elicitation in remote communication, either performed by human analysts or
voice-based chatbots.
- Abstract(参考訳): ユーザエンゲージメントの獲得は、ソフトウェア製品の機能に関するフィードバックを集める上で極めて重要です。
市場主導の文脈では、ユーザーのフィードバックを収集し分析する現在のアプローチは、製品レビューやソーシャルメディアから抽出された情報を活用する技術に基づいている。
これらのアプローチは、専門的なソフトウェア開発や、特定のユーザから情報を集める必要があるコンテキストではほとんど適用できない。
そのような場合、企業は製品に対するフィードバックを得るために対面のインタビューに頼る必要がある。
本稿では,生体計測データを,生理的・音声的特徴の観点から活用し,製品関連トピックに対するユーザの関与に関する情報をインタビューに補完する手法を提案する。
本研究では,Empatica E4リストバンドを用いて生理的データ(バイオフィードバック)を収集しながらユーザをインタビューし,一般的なラップトップのオーディオレコーダを通じて音声をキャプチャすることで,そのアプローチを評価する。
その結果,生体データを用いた教師付き機械学習アルゴリズムの学習によってユーザのエンゲージメントを予測でき,音声機能だけで十分な効果が得られることがわかった。
学習データを合成マイノリティオーバーサンプリング技術(SMOTE)で前処理する際、予測アルゴリズムの性能を最大化する。
本研究の結果から,バイオフィードバックと音声分析は,製品改善指向の要件の優先順位付けや,ユーザのエンゲージメントに基づく面接の促進に有効であることが示唆された。
さらに、音声機能の利用は、人間の分析者や音声ベースのチャットボットによって行われるリモートコミュニケーションにおける感情認識要求に特に有用である。
関連論文リスト
- Predictive Speech Recognition and End-of-Utterance Detection Towards Spoken Dialog Systems [55.99999020778169]
本稿では,次の単語を予測し,発話終了まで残される時間を推定する機能について検討する。
我々は,音響情報と言語情報の両方を組み込んだクロスアテンションに基づくアルゴリズムを開発した。
その結果,提案モデルでは,提案する単語を予測し,将来のEOUイベントを実際のEOUより300ミリ秒前まで推定する能力を示した。
論文 参考訳(メタデータ) (2024-09-30T06:29:58Z) - InsightPulse: An IoT-based System for User Experience Interview Analysis [1.7533975800877244]
本稿では,IoT(Internet of Things)ベースのハードウェアおよびソフトウェアシステムであるInsightPulseを紹介する。
InsightPulseは、重要な議論ポイントを自動的に識別しハイライトし、フォローアップ質問を積極的に提案し、テーマの要約を生成することで、ユーザインタビュー中のリアルタイムサポートを提供する。
システムは堅牢なバックエンド分析ダッシュボードを備えており、インタービュー後のレビュープロセスが簡単になり、実行可能な洞察の迅速な抽出が容易になり、全体的なUX研究効率が向上する。
論文 参考訳(メタデータ) (2024-09-23T21:39:34Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - UltraFeedback: Boosting Language Models with Scaled AI Feedback [99.4633351133207]
大規模で高品質で多様なAIフィードバックデータセットである textscUltraFeedback を提示する。
我々の研究は、強力なオープンソースのチャット言語モデルを構築する上で、スケールしたAIフィードバックデータの有効性を検証する。
論文 参考訳(メタデータ) (2023-10-02T17:40:01Z) - Talk the Walk: Synthetic Data Generation for Conversational Music
Recommendation [62.019437228000776]
本稿では,広く利用可能なアイテムコレクションにおいて,符号化された専門知識を活用することで,現実的な高品質な会話データを生成するTalkWalkを提案する。
人間の収集したデータセットで100万以上の多様な会話を生成します。
論文 参考訳(メタデータ) (2023-01-27T01:54:16Z) - Dehumanizing Voice Technology: Phonetic & Experiential Consequences of
Restricted Human-Machine Interaction [0.0]
我々は、要求が音声の収束と低音声の遅延を増大させ、最終的には消費者にとってより自然なタスク体験をもたらすことを示す。
スマートオブジェクトとの対話を開始するために必要な入力を変更することは、消費者の主観的経験と人間の声の客観的な音声的変化の両方において、体系的な変化を引き起こす証拠を提供する。
論文 参考訳(メタデータ) (2021-11-02T22:49:25Z) - Building a Noisy Audio Dataset to Evaluate Machine Learning Approaches
for Automatic Speech Recognition Systems [0.0]
この研究は、ノイズの多いオーディオのデータセットを構築する過程を、干渉による劣化したオーディオの特定のケースで提示することを目的としている。
また、このようなデータを評価に利用する分類器の初期結果を示し、認識者の学習プロセスでこのデータセットを使用することの利点を示す。
論文 参考訳(メタデータ) (2021-10-04T13:08:53Z) - Experiences with the Introduction of AI-based Tools for Moderation
Automation of Voice-based Participatory Media Forums [0.5243067689245634]
我々は、空白またはノイズの多い音声をフィルタリングするAIツールを導入し、音声認識を使ってテキストで音声メッセージを書き起こし、自然言語処理技術を使って音声書き起こしからメタデータを抽出する。
本稿では,これらのツールの導入による時間とコスト削減の点から,AIベースの自動化のワークフローへの受容性に対するモデレーターのフィードバックについて述べる。
我々の研究は、いくつかのルーチンタスクの自動化にAIを使用する場合のケーススタディを形成しており、特に、発展途上国における音声技術の使用に関わる他の研究者や実践者には特に関係がある。
論文 参考訳(メタデータ) (2021-08-09T17:50:33Z) - An Overview of Deep-Learning-Based Audio-Visual Speech Enhancement and
Separation [57.68765353264689]
音声強調と音声分離は関連する2つの課題である。
伝統的に、これらのタスクは信号処理と機械学習技術を使って取り組まれてきた。
ディープラーニングは強力なパフォーマンスを達成するために利用されています。
論文 参考訳(メタデータ) (2020-08-21T17:24:09Z) - Leveraging Multimodal Behavioral Analytics for Automated Job Interview
Performance Assessment and Feedback [0.5872014229110213]
行動的手がかりは人間のコミュニケーションや認知に重要な役割を果たす。
本稿では,インタビューシナリオにおける候補の分析を行うマルチモーダル分析フレームワークを提案する。
我々はこれらのマルチモーダルデータソースを用いて複合表現を構築し、機械学習分類器を訓練してクラスラベルを予測する。
論文 参考訳(メタデータ) (2020-06-14T14:20:42Z) - IART: Intent-aware Response Ranking with Transformers in
Information-seeking Conversation Systems [80.0781718687327]
我々は、情報探索会話におけるユーザ意図パターンを分析し、意図認識型ニューラルレスポンスランキングモデル「IART」を提案する。
IARTは、ユーザ意図モデリングと言語表現学習とTransformerアーキテクチャの統合の上に構築されている。
論文 参考訳(メタデータ) (2020-02-03T05:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。