論文の概要: Learning Through Dialogue: Unpacking the Dynamics of Human-LLM Conversations on Political Issues
- arxiv url: http://arxiv.org/abs/2601.07796v1
- Date: Mon, 12 Jan 2026 18:10:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.740305
- Title: Learning Through Dialogue: Unpacking the Dynamics of Human-LLM Conversations on Political Issues
- Title(参考訳): 対話を通して学ぶ:政治問題における人間とLLMの対話のダイナミクスを解き放つ
- Authors: Shaz Furniturewala, Gerard Christopher Yeo, Kokil Jaidka,
- Abstract要約: 大規模言語モデル(LLM)は、学習のための対話的パートナーとしてますます使われていますが、ユーザの学習とエンゲージメントをサポートする相互作用のダイナミクスは検討されています。
社会政治問題に関する397人の人間とLLMの会話におけるLLMと参加者のチャットの言語的特徴と相互作用的特徴を分析した。
- 参考スコア(独自算出の注目度): 17.05441917302334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used as conversational partners for learning, yet the interactional dynamics supporting users' learning and engagement are understudied. We analyze the linguistic and interactional features from both LLM and participant chats across 397 human-LLM conversations about socio-political issues to identify the mechanisms and conditions under which LLM explanations shape changes in political knowledge and confidence. Mediation analyses reveal that LLM explanatory richness partially supports confidence by fostering users' reflective insight, whereas its effect on knowledge gain operates entirely through users' cognitive engagement. Moderation analyses show that these effects are highly conditional and vary by political efficacy. Confidence gains depend on how high-efficacy users experience and resolve uncertainty. Knowledge gains depend on high-efficacy users' ability to leverage extended interaction, with longer conversations benefiting primarily reflective users. In summary, we find that learning from LLMs is an interactional achievement, not a uniform outcome of better explanations. The findings underscore the importance of aligning LLM explanatory behavior with users' engagement states to support effective learning in designing Human-AI interactive systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、学習のための対話的パートナーとしてますます使われていますが、ユーザの学習とエンゲージメントをサポートする相互作用のダイナミクスは検討されています。
LLMの説明が政治的知識や信頼の変化を形作るメカニズムと状況を明らかにするために,社会政治問題に関する397人の人間とLLMの会話におけるLLMと参加者の会話の言語的特徴と相互作用的特徴を分析した。
情緒分析の結果, LLM説明的豊かさは, ユーザの反射的洞察を育むことによって部分的に信頼を支え, 知識獲得に対する影響は, ユーザの認知的エンゲージメントを通じて完全に機能することがわかった。
モデレーション分析は、これらの効果が極めて条件付きであり、政治的効果によって異なることを示している。
信頼性の向上は、高効率ユーザがいかにして不確実性を経験し、解決するかに依存する。
知識の獲得は、拡張されたインタラクションを活用する高効率なユーザの能力に依存する。
まとめると、LLMからの学習は相互作用的な成果であり、より良い説明の均一な結果ではない。
この結果は,人間-AI対話型システムの設計における効果的な学習を支援するために,LCM説明行動とユーザのエンゲージメント状態との整合性の重要性を浮き彫りにした。
関連論文リスト
- Understanding Learner-LLM Chatbot Interactions and the Impact of Prompting Guidelines [9.834055425277874]
本研究は,学習者とAIの相互作用を,参加者が効果的なプロンプトの構造化指導を受ける教育実験を通して調査する。
ユーザの行動を評価し,有効性を促進するために,107人のユーザから642のインタラクションのデータセットを解析した。
我々の研究は、ユーザーが大規模言語モデルとどのように関わり、AI支援コミュニケーションを強化するための構造化された指導の役割についてより深く理解している。
論文 参考訳(メタデータ) (2025-04-10T15:20:43Z) - Exploring the Impact of Personality Traits on Conversational Recommender Systems: A Simulation with Large Language Models [70.180385882195]
本稿では,対話型レコメンダシステム(CRS)のためのパーソナリティを考慮したユーザシミュレーションを提案する。
ユーザエージェントはカスタマイズ可能な性格特性と嗜好を誘導し、システムエージェントはCRS内の現実的な相互作用をシミュレートする説得能力を有する。
実験により,現在最先端のLCMは,特定の性格特性に適合した多様なユーザ応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2025-04-09T13:21:17Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Affect Recognition in Conversations Using Large Language Models [9.689990547610664]
影響認識は人間のコミュニケーションにおいて重要な役割を担っている。
本研究では,会話における人間の影響を認識するための言語モデル(LLM)の能力について検討する。
論文 参考訳(メタデータ) (2023-09-22T14:11:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。