論文の概要: Reading Users' Minds from What They Say: An Investigation into LLM-based Empathic Mental Inference
- arxiv url: http://arxiv.org/abs/2403.13301v1
- Date: Wed, 20 Mar 2024 04:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 17:58:10.496837
- Title: Reading Users' Minds from What They Say: An Investigation into LLM-based Empathic Mental Inference
- Title(参考訳): ユーザの心を読む:LLMに基づく共感的メンタル推論の検討
- Authors: Qihao Zhu, Leah Chong, Maria Yang, Jianxi Luo,
- Abstract要約: 人間中心の設計では、ユーザエクスペリエンスの包括的で詳細な理解を開発することが最重要である。
人間の大きな集団の 精神状態の正確な理解は 今も重要な課題です
本稿では,大規模言語モデル(LLM)を用いたメンタル推論タスクの実施について検討する。
- 参考スコア(独自算出の注目度): 6.208698652041961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In human-centered design, developing a comprehensive and in-depth understanding of user experiences, i.e., empathic understanding, is paramount for designing products that truly meet human needs. Nevertheless, accurately comprehending the real underlying mental states of a large human population remains a significant challenge today. This difficulty mainly arises from the trade-off between depth and scale of user experience research: gaining in-depth insights from a small group of users does not easily scale to a larger population, and vice versa. This paper investigates the use of Large Language Models (LLMs) for performing mental inference tasks, specifically inferring users' underlying goals and fundamental psychological needs (FPNs). Baseline and benchmark datasets were collected from human users and designers to develop an empathic accuracy metric for measuring the mental inference performance of LLMs. The empathic accuracy of inferring goals and FPNs of different LLMs with varied zero-shot prompt engineering techniques are experimented against that of human designers. Experimental results suggest that LLMs can infer and understand the underlying goals and FPNs of users with performance comparable to that of human designers, suggesting a promising avenue for enhancing the scalability of empathic design approaches through the integration of advanced artificial intelligence technologies. This work has the potential to significantly augment the toolkit available to designers during human-centered design, enabling the development of both large-scale and in-depth understanding of users' experiences.
- Abstract(参考訳): 人間中心設計において、ユーザー体験の包括的で深い理解、すなわち共感的理解は、本当に人間のニーズを満たす製品を設計するための最重要課題である。
それでも、大きな人間の心の状態を正確に理解することは、今日でも重要な課題である。
この困難は、主にユーザー体験研究の深さと規模の間のトレードオフから生じ、少数のユーザーグループから深い洞察を得ることは、より広い人口に容易にはスケールできない。
本稿では,大規模言語モデル(LLM)を用いて精神推論を行い,特にユーザの基本的目標と基礎的心理的ニーズ(FPN)を推定する。
ベースラインとベンチマークデータセットを人やデザイナーから収集し,LLMの精神的推論性能を測定するための共感的精度指標を開発した。
異なるゼロショットプロンプト技術を用いた異なるLDMの目標推定とFPNの共感的精度を,人間設計者に対して実験した。
実験結果から,LLMは人間の設計に匹敵する性能を持つユーザの基本的な目標やFPNを推測し,理解することができることが示唆された。
この研究は、人間中心の設計においてデザイナが利用できるツールキットを著しく強化する可能性があり、ユーザ体験の大規模かつ詳細な理解の開発を可能にする。
関連論文リスト
- Evaluating Cultural and Social Awareness of LLM Web Agents [113.49968423990616]
CASAは,大規模言語モデルの文化的・社会的規範に対する感受性を評価するためのベンチマークである。
提案手法は,標準に違反するユーザクエリや観察を検知し,適切に応答するLLMエージェントの能力を評価する。
実験により、現在のLLMは非エージェント環境で大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2024-10-30T17:35:44Z) - BIG5-CHAT: Shaping LLM Personalities Through Training on Human-Grounded Data [28.900987544062257]
BIG5-CHATは、人間がいかに人格をテキストで表現するかのモデルを構築するために設計された10万の対話を含む大規模なデータセットである。
提案手法は,BFIやIPIP-NEOなどの人格評価に優れ,特徴相関は人的データとより密に一致している。
実験の結果,高良性,高良性,低外転,低神経障害を訓練したモデルでは,推論タスクの性能が向上することが判明した。
論文 参考訳(メタデータ) (2024-10-21T20:32:27Z) - HERM: Benchmarking and Enhancing Multimodal LLMs for Human-Centric Understanding [68.4046326104724]
本稿では,MLLMの人間中心理解能力を評価するベンチマークであるHERM-Benchを紹介する。
我々の研究は、複雑な人間中心のシナリオを理解する上で、既存のMLLMの限界を明らかにする。
我々は、MLLMのトレーニングを強化することを目的とした、多レベルな人間中心アノテーションを備えた包括的なデータセットHERM-100Kを提案する。
論文 参考訳(メタデータ) (2024-10-09T11:14:07Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - PersonaFlow: Boosting Research Ideation with LLM-Simulated Expert Personas [12.593617990325528]
研究アイデアを支援するためにペルソナシミュレーションを用いたLLMシステムであるペルソナフローを紹介する。
以上の結果から,複数のペルソナをアイデア作成中に使用すると,ユーザ認識の質が著しく向上することが示唆された。
ユーザのペルソナカスタマイズインタラクションは、生成したアイデアのコントロールとリコールの感覚を大幅に改善した。
論文 参考訳(メタデータ) (2024-09-19T07:54:29Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - What You Need is What You Get: Theory of Mind for an LLM-Based Code Understanding Assistant [0.0]
開発者のコード理解を支援するために、多くのツールがLLM(Large Language Models)を使用している。
本研究では,LLMをベースとした対話型アシスタントの設計を行った。
コード理解の初心者を支援するためにLLMベースの会話アシスタントを開発したり改善したりしたい研究者やツールビルダーに洞察を提供する。
論文 参考訳(メタデータ) (2024-08-08T14:08:15Z) - CogErgLLM: Exploring Large Language Model Systems Design Perspective Using Cognitive Ergonomics [0.0]
LLMと認知エルゴノミクスを統合することは、人間とAIの相互作用における安全性、信頼性、ユーザ満足度を改善するために重要である。
現在のLLMの設計は、この統合を欠いていることが多く、結果として人間の認知能力や限界と完全に一致しない可能性がある。
論文 参考訳(メタデータ) (2024-07-03T07:59:52Z) - Persona-DB: Efficient Large Language Model Personalization for Response Prediction with Collaborative Data Refinement [79.2400720115588]
本稿では,タスクコンテキスト間の一般化を改善するための階層的な構築プロセスからなる,シンプルで効果的なフレームワークであるPersona-DBを紹介する。
応答予測の評価において,Persona-DB は精度を著しく低減した検索サイズで維持する上で,より優れたコンテキスト効率を示す。
我々の実験は、ユーザーが極めて少ないデータを持つ場合、コールドスタートシナリオで10%以上の顕著な改善が示されていることも示している。
論文 参考訳(メタデータ) (2024-02-16T20:20:43Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - User profile-driven large-scale multi-agent learning from demonstration
in federated human-robot collaborative environments [5.218882272051637]
本稿では,提示された人間の行動のきめ細かい表現を提供する,新しいユーザプロファイルの定式化について紹介する。
全体的な設計は、人間の行動の短期的および長期的分析/解釈を可能にする。
論文 参考訳(メタデータ) (2021-03-30T15:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。