論文の概要: Speaking the Right Language: The Impact of Expertise Alignment in User-AI Interactions
- arxiv url: http://arxiv.org/abs/2502.18685v1
- Date: Tue, 25 Feb 2025 22:46:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:59:02.303196
- Title: Speaking the Right Language: The Impact of Expertise Alignment in User-AI Interactions
- Title(参考訳): 正しい言葉を語る: ユーザとAIのインタラクションにおけるエキスパートアライメントの影響
- Authors: Shramay Palta, Nirupama Chandrasekaran, Rachel Rudinger, Scott Counts,
- Abstract要約: 25,000件のBing Copilot会話のサンプルを用いて、エージェントがドメインの専門知識の異なるユーザに対してどのように反応するかを調べる。
調査の結果,多種多様な分野にまたがって,エージェントは熟練あるいは熟練した専門知識のレベルに大きく反応することがわかった。
また,会話中の単語数から判断されるように,エージェントがユーザのそれと相反する専門知識のレベルに応答すると,より多くのユーザが会話を行うことを示す。
- 参考スコア(独自算出の注目度): 20.986518776079404
- License:
- Abstract: Using a sample of 25,000 Bing Copilot conversations, we study how the agent responds to users of varying levels of domain expertise and the resulting impact on user experience along multiple dimensions. Our findings show that across a variety of topical domains, the agent largely responds at proficient or expert levels of expertise (77% of conversations) which correlates with positive user experience regardless of the user's level of expertise. Misalignment, such that the agent responds at a level of expertise below that of the user, has a negative impact on overall user experience, with the impact more profound for more complex tasks. We also show that users engage more, as measured by the number of words in the conversation, when the agent responds at a level of expertise commensurate with that of the user. Our findings underscore the importance of alignment between user and AI when designing human-centered AI systems, to ensure satisfactory and productive interactions.
- Abstract(参考訳): 25,000件のBing Copilot会話のサンプルを用いて、エージェントがさまざまなレベルのドメイン専門知識を持つユーザに対してどのように反応し、結果として複数の次元に沿ったユーザエクスペリエンスに与える影響を調査する。
調査の結果,多種多様な分野において,エージェントは専門知識の熟練度(会話の77%)に大きく反応し,ユーザの専門知識のレベルに関わらず,肯定的なユーザエクスペリエンスと相関することがわかった。
ミスアライメント(ミスアライメント)は、エージェントがユーザよりも低いレベルの専門知識で応答するように、ユーザエクスペリエンス全体に悪影響を及ぼし、より複雑なタスクに対してより深く影響します。
また,会話中の単語数から判断されるように,エージェントがユーザのそれと相反する専門知識のレベルに応答すると,より多くのユーザが会話を行うことを示す。
我々の発見は、人間中心のAIシステムを設計する際に、ユーザーとAIの整合性の重要性を強調し、良好な、生産的な相互作用を保証する。
関連論文リスト
- A Speaker Turn-Aware Multi-Task Adversarial Network for Joint User Satisfaction Estimation and Sentiment Analysis [28.940337080659905]
対話レベルのユーザ満足度推定(USE)と感性分析(SA)のための話者ターン対応マルチタスク対応ネットワーク(STMAN)を提案する。
まず,タスク識別器を訓練して発話表現をよりタスク特化させるマルチタスク対向戦略を導入し,その上で,各タスクに相補的な共通特徴を抽出するために話者ターン認識型マルチタスクインタラクション戦略を利用する。
論文 参考訳(メタデータ) (2024-10-12T15:03:53Z) - Unveiling the Impact of Multi-Modal Interactions on User Engagement: A Comprehensive Evaluation in AI-driven Conversations [17.409790984399052]
本稿では,画像と音声をテキストと併用したマルチモーダルインタラクションがユーザエンゲージメントに与える影響について検討する。
本研究は,テキストのみの対話に比べて,マルチモーダルインタラクションによるユーザエンゲージメントが著しく向上していることを明らかにする。
その結果,マルチモーダルインタラクションは認知処理を最適化し,より豊かな情報理解を促進することが示唆された。
論文 参考訳(メタデータ) (2024-06-21T09:26:55Z) - Rethinking the Evaluation of Dialogue Systems: Effects of User Feedback on Crowdworkers and LLMs [57.16442740983528]
アドホック検索では、評価は暗黙のフィードバックを含むユーザーの行動に大きく依存する。
アノテータの会話知覚におけるターン評価におけるユーザフィードバックの役割はほとんど研究されていない。
本稿では,タスク指向対話システム(TDS)の評価が,ターンのフォローアップ発話を通じて提供されるユーザフィードバック,明示的あるいは暗黙的な評価にどのように影響するかに注目した。
論文 参考訳(メタデータ) (2024-04-19T16:45:50Z) - CAUSE: Counterfactual Assessment of User Satisfaction Estimation in Task-Oriented Dialogue Systems [60.27663010453209]
我々は,大規模言語モデル(LLM)を利用して,満足度を考慮した対実対話を生成する。
生成されたサンプルの信頼性を確保するために、人間のアノテーションを収集します。
この結果から,TODシステムにおけるユーザ満足度推定のためのデータ拡張手法の必要性が明らかになった。
論文 参考訳(メタデータ) (2024-03-27T23:45:31Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - Affective Conversational Agents: Understanding Expectations and Personal
Influences [17.059654991560105]
様々なアプリケーションにおける情緒的スキルに対する期待と嗜好を理解するため,745人の回答者を対象に調査を行った。
以上の結果から,人間のインタラクション,情緒的サポート,創造的タスクを含むシナリオの選好が示唆された。
全体として、AIエージェントの望ましい感情的スキルは、アプリケーションのコンテキストと性質に大きく依存する。
論文 参考訳(メタデータ) (2023-10-19T04:33:18Z) - Continually Improving Extractive QA via Human Feedback [59.49549491725224]
本研究では,人間のフィードバックによる抽出質問応答(QA)システムの改善を継続的に進める。
多様な設定の下で何千ものユーザインタラクションを含む実験を行い、時間とともにフィードバックからの学習の理解を広げます。
論文 参考訳(メタデータ) (2023-05-21T14:35:32Z) - Feedback Effect in User Interaction with Intelligent Assistants: Delayed
Engagement, Adaption and Drop-out [9.205174767678365]
本稿では,IA-ユーザインタラクションにおける新たなコンポーネントであるフィードバック効果の同定と定量化を行う。
IAからの不快な反応は、ユーザがその後の対話を遅らせたり遅らせる原因となることを示す。
ユーザがIAの理解と機能能力の限界を発見すると、ユーザは要求のスコープとワードの調整を学ぶ。
論文 参考訳(メタデータ) (2023-03-17T21:39:33Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - Interacting with Non-Cooperative User: A New Paradigm for Proactive
Dialogue Policy [83.61404191470126]
インタラクティブな環境下でプロアクティブなポリシーを学習できるI-Proという新しいソリューションを提案する。
具体的には,4つの要因からなる学習目標重みを通じてトレードオフを学習する。
実験の結果,I-Proは,有効性と解釈性において,ベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-04-07T14:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。