論文の概要: Applying LLM-Powered Virtual Humans to Child Interviews in Child-Centered Design
- arxiv url: http://arxiv.org/abs/2504.20016v1
- Date: Mon, 28 Apr 2025 17:35:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.54087
- Title: Applying LLM-Powered Virtual Humans to Child Interviews in Child-Centered Design
- Title(参考訳): LLMを利用したバーチャルヒューマンの児童インタビューへの活用
- Authors: Linshi Li, Hanlin Cai,
- Abstract要約: 本研究は,子どもの面接に適したLLMを用いた仮想人間の設計ガイドラインを確立する。
ChatGPTベースのプロンプトエンジニアリングを用いて、3つの異なるヒューマンAI(LLM-Auto, LLM-Interview, LLM-Analyze)を開発した。
その結果、LLM-Analyzeワークフローは、長い応答を引き出すことで、他のワークフローよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In child-centered design, directly engaging children is crucial for deeply understanding their experiences. However, current research often prioritizes adult perspectives, as interviewing children involves unique challenges such as environmental sensitivities and the need for trust-building. AI-powered virtual humans (VHs) offer a promising approach to facilitate engaging and multimodal interactions with children. This study establishes key design guidelines for LLM-powered virtual humans tailored to child interviews, standardizing multimodal elements including color schemes, voice characteristics, facial features, expressions, head movements, and gestures. Using ChatGPT-based prompt engineering, we developed three distinct Human-AI workflows (LLM-Auto, LLM-Interview, and LLM-Analyze) and conducted a user study involving 15 children aged 6 to 12. The results indicated that the LLM-Analyze workflow outperformed the others by eliciting longer responses, achieving higher user experience ratings, and promoting more effective child engagement.
- Abstract(参考訳): 子供中心のデザインでは、直接参加する子供たちは、自分の経験を深く理解するために不可欠である。
しかし, 子どもへのインタビューには, 環境感受性や信頼構築の必要性など, 独特な課題が伴うため, 成人の視点が優先されることが多い。
AIを利用した仮想人間(VHs)は、子供たちとのエンゲージメントとマルチモーダルなインタラクションを促進する、有望なアプローチを提供する。
本研究は、子どもの面接に合わせたLLMを利用した仮想人間のための重要なデザインガイドラインを確立し、色調、声の特徴、顔の特徴、表情、頭の動き、ジェスチャーなどの多モード要素を標準化する。
ChatGPTをベースとしたプロンプトエンジニアリングを用いて,LLM-Auto, LLM-Interview, LLM-Analyzeの3つの異なるヒューマンAIワークフローを開発し,6歳から12歳までの15人の子供を対象にユーザスタディを行った。
その結果, LLM-Analyze のワークフローは, より長い回答を導き, 高いユーザ体験評価を達成し, より効果的な児童エンゲージメントを促進することによって, 他者よりも優れていた。
関連論文リスト
- LLM Safety for Children [9.935219917903858]
この研究は、標準的な安全評価によって見落とされがちな子供の多様性を認めている。
本研究は,児童医療・心理学における文献による児童の個人性や興味の多様性を反映した児童ユーザモデルを開発する。
論文 参考訳(メタデータ) (2025-02-18T05:26:27Z) - Benchmarking LLMs for Mimicking Child-Caregiver Language in Interaction [4.109949110722246]
LLMは人間のような対話を生成できるが、初期の子どもと大人の交流をシミュレートする能力はほとんど解明されていない。
現状のLSMは、単語と発話レベルにおいて、子どもと介護者の対話を近似することができるが、子どもと介護者の分散パターンの再現に苦慮し、アライメントを誇張し、人間によって示される多様性のレベルに到達できなかった。
論文 参考訳(メタデータ) (2024-12-12T14:43:03Z) - NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - Can Generic LLMs Help Analyze Child-adult Interactions Involving Children with Autism in Clinical Observation? [27.730703344144604]
大規模言語モデル(LLM)は、人間のコミュニケーションと相互作用を理解する上で大きな可能性を示している。
本研究は,ALDの小児における乳児・乳児・乳児・乳児・乳児・乳児・乳児の相互作用を,臨床的に関連性のある文脈で解析する汎用LSMの能力を評価した。
論文 参考訳(メタデータ) (2024-11-16T09:36:56Z) - Students Rather Than Experts: A New AI For Education Pipeline To Model More Human-Like And Personalised Early Adolescences [11.576679362717478]
本研究は,仮想学生エージェントをモデル化するための文脈としての言語学習に焦点を当てた。
教師と生徒の個人的交流のデータセットを様々な性格特性でキュレートすることにより,多次元的評価実験を行う。
論文 参考訳(メタデータ) (2024-10-21T07:18:24Z) - The LLM Effect: Are Humans Truly Using LLMs, or Are They Being Influenced By Them Instead? [60.01746782465275]
大規模言語モデル(LLM)は、様々な分析タスクにおいて、人間のパフォーマンスに近い能力を示している。
本稿では,Human-LLMパートナーシップに着目した構造化ユーザスタディにより,特殊作業におけるLLMの効率と精度について検討する。
論文 参考訳(メタデータ) (2024-10-07T02:30:18Z) - Understanding the Human-LLM Dynamic: A Literature Survey of LLM Use in Programming Tasks [0.850206009406913]
大規模言語モデル(LLM)はプログラミングプラクティスを変革し、コード生成活動に重要な機能を提供する。
本稿では,LLMがプログラミングタスクに与える影響を評価するユーザスタディから洞察を得た上で,プログラミングタスクにおけるそれらの使用に焦点を当てる。
論文 参考訳(メタデータ) (2024-10-01T19:34:46Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - ChatEval: Towards Better LLM-based Evaluators through Multi-Agent Debate [57.71597869337909]
われわれはChatEvalと呼ばれるマルチエージェントの審判チームを構築し、異なるモデルから生成された応答の品質を自律的に議論し評価する。
分析の結果,ChatEvalは単なるテキストスコアリングを超越し,信頼性評価のための人間模倣評価プロセスを提供することがわかった。
論文 参考訳(メタデータ) (2023-08-14T15:13:04Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - StoryBuddy: A Human-AI Collaborative Chatbot for Parent-Child
Interactive Storytelling with Flexible Parental Involvement [61.47157418485633]
私たちは、インタラクティブなストーリーテリング体験を作成するためのAI対応システムであるStoryBuddyを開発した。
ユーザスタディでは、StoryBuddyのユーザビリティを検証し、将来の親とAIのコラボレーションシステムの設計上の洞察を提案した。
論文 参考訳(メタデータ) (2022-02-13T04:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。