論文の概要: A Study on the Manifestation of Trust in Speech
- arxiv url: http://arxiv.org/abs/2102.09370v1
- Date: Tue, 9 Feb 2021 13:08:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 14:51:54.362223
- Title: A Study on the Manifestation of Trust in Speech
- Title(参考訳): 音声における信頼の宣言に関する研究
- Authors: Lara Gauder, Leonardo Pepino, Pablo Riera, Silvina Brussino, Jazm\'in
Vidal, Agust\'in Gravano, Luciana Ferrer
- Abstract要約: 音声に基づいて仮想アシスタント(VA)でユーザーが持っている信頼レベルを自動的に検出する可能性を検討します。
VAのスキルに対する信頼度が異なるよう誘導された被験者から発話データを収集するための新しいプロトコルを開発した。
我々は、このプロトコルが効果的にエージェントのスキルを信頼または不信の望ましい精神状態に被験者に影響を与えることに成功したという明確な証拠を示しています。
- 参考スコア(独自算出の注目度): 12.057694908317991
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Research has shown that trust is an essential aspect of human-computer
interaction directly determining the degree to which the person is willing to
use a system. An automatic prediction of the level of trust that a user has on
a certain system could be used to attempt to correct potential distrust by
having the system take relevant actions like, for example, apologizing or
explaining its decisions. In this work, we explore the feasibility of
automatically detecting the level of trust that a user has on a virtual
assistant (VA) based on their speech. We developed a novel protocol for
collecting speech data from subjects induced to have different degrees of trust
in the skills of a VA. The protocol consists of an interactive session where
the subject is asked to respond to a series of factual questions with the help
of a virtual assistant. In order to induce subjects to either trust or distrust
the VA's skills, they are first informed that the VA was previously rated by
other users as being either good or bad; subsequently, the VA answers the
subjects' questions consistently to its alleged abilities. All interactions are
speech-based, with subjects and VAs communicating verbally, which allows the
recording of speech produced under different trust conditions. Using this
protocol, we collected a speech corpus in Argentine Spanish. We show clear
evidence that the protocol effectively succeeded in influencing subjects into
the desired mental state of either trusting or distrusting the agent's skills,
and present results of a perceptual study of the degree of trust performed by
expert listeners. Finally, we found that the subject's speech can be used to
detect which type of VA they were using, which could be considered a proxy for
the user's trust toward the VA's abilities, with an accuracy up to 76%,
compared to a random baseline of 50%.
- Abstract(参考訳): 研究によると、信頼は人間とコンピュータの相互作用において重要な側面であり、その人がシステムを使用する意思の程度を直接決定する。
ユーザが特定のシステムに持っている信頼度の自動予測は、例えば、その決定を謝罪したり、説明したりすることで、システムが関連する行動をとることによって潜在的な不信を正そうと試みることができる。
本研究では,仮想アシスタント(VA)におけるユーザの信頼度を,音声に基づいて自動的に検出する可能性を検討する。
VAのスキルに対する信頼度が異なるよう誘導された被験者から発話データを収集するための新しいプロトコルを開発した。
このプロトコルはインタラクティブなセッションで構成され、被験者は仮想アシスタントの助けを借りて一連の事実的な質問に応答するように求められます。
VAのスキルを信頼するか信用しないかのどちらかに被験者を誘導するために、VAは以前に他のユーザーによって良いか悪いか評価されたことを最初に知らされ、その後、VAは被験者の質問に一貫してその主張された能力に答えます。
すべての相互作用は音声ベースであり、被験者とVAは言語的にコミュニケーションし、異なる信頼条件下で生成された音声の記録を可能にする。
このプロトコルを用いて、アルゼンチンのスペイン語で音声コーパスを収集した。
本プロトコルは,エージェントのスキルを信頼するか,あるいは信頼できないかという希望的精神状態に対して,被験者が効果的に影響を与えることを証明し,専門家が行う信頼度に関する知覚的研究の結果を示す。
最後に、被験者のスピーチを使用して、使用するVAの種類を検出することができ、これは、50%のランダムなベースラインと比較して、最大76%の精度で、VAの能力に対するユーザーの信頼のプロキシと見なすことができます。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Explainable Attribute-Based Speaker Verification [12.941187430993796]
属性に基づく説明可能な話者検証(SV)システムを提案する。
音声記録から自動的に抽出される性別、国籍、年齢などの個人属性を比較して話者を特定する。
このアプローチは人間の推論とよく一致し、従来の方法よりも理解しやすい、と私たちは信じています。
論文 参考訳(メタデータ) (2024-05-30T08:04:28Z) - Humans, AI, and Context: Understanding End-Users' Trust in a Real-World
Computer Vision Application [22.00514030715286]
我々は,現実のコンピュータビジョンアプリケーションの定性的なケーススタディを通じて,AIに対する信頼の包括的でニュアンスな理解を提供する。
参加者はアプリが信頼できると認識し信頼するが、検証行動に関わった後、選択的にアプリアウトプットを受け入れた。
本研究は,AIの信頼性に関する今後の研究への提言として,その意義について論じる。
論文 参考訳(メタデータ) (2023-05-15T12:27:02Z) - User-Centered Security in Natural Language Processing [0.7106986689736825]
自然言語処理(NLP)におけるユーザ中心のセキュリティの枠組みの提案
NLP内の2つのセキュリティドメインに重点を置いている。
論文 参考訳(メタデータ) (2023-01-10T22:34:19Z) - VQMIVC: Vector Quantization and Mutual Information-Based Unsupervised
Speech Representation Disentanglement for One-shot Voice Conversion [54.29557210925752]
ワンショット音声変換は、音声表現のアンタングルメントによって効果的に実現できる。
コンテンツエンコーディングにはベクトル量子化(VQ)を使用し、トレーニング中に相互情報(MI)を相関指標として導入する。
実験結果は,提案手法が効果的に非絡み合った音声表現を学習する際の優位性を反映している。
論文 参考訳(メタデータ) (2021-06-18T13:50:38Z) - Adversarial Disentanglement of Speaker Representation for
Attribute-Driven Privacy Preservation [17.344080729609026]
話者音声表現における属性駆動プライバシー保存の概念について紹介する。
これにより、悪意のあるインターセプターやアプリケーションプロバイダに1つ以上の個人的な側面を隠すことができる。
本稿では,話者属性の音声表現に絡み合った逆自動符号化手法を提案し,その隠蔽を可能にする。
論文 参考訳(メタデータ) (2020-12-08T14:47:23Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z) - Detecting Distrust Towards the Skills of a Virtual Assistant Using
Speech [8.992916975952477]
本研究では,ユーザが音声に基づいて仮想アシスタント(VA)上に有する信頼度を自動的に検出する可能性について検討する。
被験者の発話は,利用者のVA能力に対する信頼を代行するものとして,使用するVAの種類を検出するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-07-30T19:56:17Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z) - Speech Enhancement using Self-Adaptation and Multi-Head Self-Attention [70.82604384963679]
本稿では,補助的話者認識機能を用いた音声強調のための自己適応手法について検討する。
テスト発話から直接適応に用いる話者表現を抽出する。
論文 参考訳(メタデータ) (2020-02-14T05:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。