論文の概要: What Do We See in Them? Identifying Dimensions of Partner Models for
Speech Interfaces Using a Psycholexical Approach
- arxiv url: http://arxiv.org/abs/2102.02094v1
- Date: Wed, 3 Feb 2021 14:57:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-04 17:20:16.250912
- Title: What Do We See in Them? Identifying Dimensions of Partner Models for
Speech Interfaces Using a Psycholexical Approach
- Title(参考訳): では、私たちは何を見るのか?
心理語彙的アプローチによる音声インタフェースのパートナーモデルの次元同定
- Authors: Philip R Doyle, Leigh Clark and Benjamin R Cowan
- Abstract要約: パートナーモデルと呼ばれるシステム能力とコミュニケーション能力の知覚は、音声インタフェースの相互作用において重要な役割を果たす。
本論文は, 音声エージェントの相互作用において, パートナーモデルを定義する重要な要素を最初に同定するものである。
- 参考スコア(独自算出の注目度): 9.722947423878395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perceptions of system competence and communicative ability, termed partner
models, play a significant role in speech interface interaction. Yet we do not
know what the core dimensions of this concept are. Taking a psycholexical
approach, our paper is the first to identify the key dimensions that define
partner models in speech agent interaction. Through a repertory grid study
(N=21), a review of key subjective questionnaires, an expert review of
resulting word pairs and an online study of 356 user of speech interfaces, we
identify three key dimensions that make up a users' partner model: 1)
perceptions toward competence and capability; 2) assessment of human-likeness;
and 3) a system's perceived cognitive flexibility. We discuss the implications
for partner modelling as a concept, emphasising the importance of salience and
the dynamic nature of these perceptions.
- Abstract(参考訳): パートナーモデルと呼ばれるシステム能力とコミュニケーション能力の知覚は、音声インタフェースの相互作用において重要な役割を果たす。
しかし、この概念のコア寸法が何であるかはわかりません。
本論文は、音声エージェントの相互作用におけるパートナーモデルを定義する重要な寸法を特定するための最初のアプローチである。
主観的質問紙調査 (n=21) , 主観的質問紙調査, 得られた単語対のエキスパートレビュー, 356名の音声インタフェース使用者のオンライン調査を通じて, ユーザのパートナーモデルを構成する3つの重要な次元, 1) 能力と能力に対する認識, 2) 人間の類似性の評価, 3) システムの認知的柔軟性を同定した。
パートナーモデリングのコンセプトとしての意義を論じ,サリエンスの重要性とこれらの知覚のダイナミックな性質を強調した。
関連論文リスト
- Affective-NLI: Towards Accurate and Interpretable Personality Recognition in Conversation [30.820334868031537]
会話におけるパーソナリティ認識(PRC)は、テキスト対話コンテンツを通して話者の性格特性を識別することを目的としている。
本稿では,PRCの正確かつ解釈可能なAffective Natural Language Inference (Affective-NLI)を提案する。
論文 参考訳(メタデータ) (2024-04-03T09:14:24Z) - Enhancing Personality Recognition in Dialogue by Data Augmentation and
Heterogeneous Conversational Graph Networks [30.33718960981521]
パーソナリティ認識は、ユーザ適応応答をカスタマイズするロボットの能力を高めるのに有用である。
この課題の1つは、既存の対話コーパスにおける話者の限られた数である。
論文 参考訳(メタデータ) (2024-01-11T12:27:33Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - HIINT: Historical, Intra- and Inter- personal Dynamics Modeling with
Cross-person Memory Transformer [38.92436852096451]
クロスパーソンメモリトランスフォーマー(CPM-T)フレームワークは、感情力学を明示的にモデル化することができる。
CPM-Tフレームワークはメモリモジュールを維持し、会話ウィンドウ内のコンテキストを保存および更新する。
共同作業,ラップポート,人的信念予測の3つの公開データセットに対して,提案手法の有効性と一般化性を評価する。
論文 参考訳(メタデータ) (2023-05-21T06:43:35Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - RelViT: Concept-guided Vision Transformer for Visual Relational
Reasoning [139.0548263507796]
私たちは視覚推論のベースモデルとして視覚変換器(ViT)を使用します。
我々は、ViTの推論能力を改善するために、オブジェクトエンティティとして定義された概念とその関係をよりよく活用する。
HICO と GQA のベンチマークでは,提案モデルである概念誘導型視覚変換器 (略して RelViT ) が従来の手法よりも大幅に優れていたことを示す。
論文 参考訳(メタデータ) (2022-04-24T02:46:43Z) - Learning Graph Representation of Person-specific Cognitive Processes
from Audio-visual Behaviours for Automatic Personality Recognition [17.428626029689653]
本稿では,対象対象者固有の認知を,個人固有のCNNアーキテクチャの形で表現することを提案する。
各人物固有のCNNは、ニューラルアーキテクチャサーチ(NAS)と新しい適応損失関数によって探索される。
実験の結果,生成したグラフ表現は対象者の性格特性とよく関連していることがわかった。
論文 参考訳(メタデータ) (2021-10-26T11:04:23Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。