論文の概要: Learning Through Dialogue: Unpacking the Dynamics of Human-LLM Conversations on Political Issues
- arxiv url: http://arxiv.org/abs/2601.07796v1
- Date: Mon, 12 Jan 2026 18:10:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.740305
- Title: Learning Through Dialogue: Unpacking the Dynamics of Human-LLM Conversations on Political Issues
- Title(参考訳): 対話を通して学ぶ:政治問題における人間とLLMの対話のダイナミクスを解き放つ
- Authors: Shaz Furniturewala, Gerard Christopher Yeo, Kokil Jaidka,
- Abstract要約: 大規模言語モデル(LLM)は、学習のための対話的パートナーとしてますます使われていますが、ユーザの学習とエンゲージメントをサポートする相互作用のダイナミクスは検討されています。
社会政治問題に関する397人の人間とLLMの会話におけるLLMと参加者のチャットの言語的特徴と相互作用的特徴を分析した。
- 参考スコア(独自算出の注目度): 17.05441917302334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used as conversational partners for learning, yet the interactional dynamics supporting users' learning and engagement are understudied. We analyze the linguistic and interactional features from both LLM and participant chats across 397 human-LLM conversations about socio-political issues to identify the mechanisms and conditions under which LLM explanations shape changes in political knowledge and confidence. Mediation analyses reveal that LLM explanatory richness partially supports confidence by fostering users' reflective insight, whereas its effect on knowledge gain operates entirely through users' cognitive engagement. Moderation analyses show that these effects are highly conditional and vary by political efficacy. Confidence gains depend on how high-efficacy users experience and resolve uncertainty. Knowledge gains depend on high-efficacy users' ability to leverage extended interaction, with longer conversations benefiting primarily reflective users. In summary, we find that learning from LLMs is an interactional achievement, not a uniform outcome of better explanations. The findings underscore the importance of aligning LLM explanatory behavior with users' engagement states to support effective learning in designing Human-AI interactive systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、学習のための対話的パートナーとしてますます使われていますが、ユーザの学習とエンゲージメントをサポートする相互作用のダイナミクスは検討されています。
LLMの説明が政治的知識や信頼の変化を形作るメカニズムと状況を明らかにするために,社会政治問題に関する397人の人間とLLMの会話におけるLLMと参加者の会話の言語的特徴と相互作用的特徴を分析した。
情緒分析の結果, LLM説明的豊かさは, ユーザの反射的洞察を育むことによって部分的に信頼を支え, 知識獲得に対する影響は, ユーザの認知的エンゲージメントを通じて完全に機能することがわかった。
モデレーション分析は、これらの効果が極めて条件付きであり、政治的効果によって異なることを示している。
信頼性の向上は、高効率ユーザがいかにして不確実性を経験し、解決するかに依存する。
知識の獲得は、拡張されたインタラクションを活用する高効率なユーザの能力に依存する。
まとめると、LLMからの学習は相互作用的な成果であり、より良い説明の均一な結果ではない。
この結果は,人間-AI対話型システムの設計における効果的な学習を支援するために,LCM説明行動とユーザのエンゲージメント状態との整合性の重要性を浮き彫りにした。
関連論文リスト
- What Drives Students' Use of AI Chatbots? Technology Acceptance in Conversational AI [0.17188280334580194]
本研究は,学生が会話型AIの使用を意図した行動意図に,有用性と使いやすさがどのような関係があるかを検討する。
学生が会話型AIを使う意図を予測する上で,有用性は依然として最強であると認識されている。
信頼と主観的規範は有用性の知覚に著しく影響を及ぼす一方、快楽は使用意図に直接的および間接的に影響する。
論文 参考訳(メタデータ) (2026-02-24T05:00:41Z) - Understanding Learner-LLM Chatbot Interactions and the Impact of Prompting Guidelines [9.834055425277874]
本研究は,学習者とAIの相互作用を,参加者が効果的なプロンプトの構造化指導を受ける教育実験を通して調査する。
ユーザの行動を評価し,有効性を促進するために,107人のユーザから642のインタラクションのデータセットを解析した。
我々の研究は、ユーザーが大規模言語モデルとどのように関わり、AI支援コミュニケーションを強化するための構造化された指導の役割についてより深く理解している。
論文 参考訳(メタデータ) (2025-04-10T15:20:43Z) - Exploring the Impact of Personality Traits on Conversational Recommender Systems: A Simulation with Large Language Models [70.180385882195]
本稿では,対話型レコメンダシステム(CRS)のためのパーソナリティを考慮したユーザシミュレーションを提案する。
ユーザエージェントはカスタマイズ可能な性格特性と嗜好を誘導し、システムエージェントはCRS内の現実的な相互作用をシミュレートする説得能力を有する。
実験により,現在最先端のLCMは,特定の性格特性に適合した多様なユーザ応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2025-04-09T13:21:17Z) - Can (A)I Change Your Mind? [0.6990493129893112]
研究は200人の参加者とともにヘブライ語で実施され、議論を呼んでいる市民政策のトピックに対するLLMと人間インターロケーターの説得効果を評価した。
以上の結果から,LLMとヒトの視点も同様に採用され,全ての条件において有意な意見の変化が認められた。
これらの知見は, LLMをベースとしたエージェントが, 様々なソースや設定にまたがる堅牢な説得力を示し, 世論形成への潜在的影響を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-03T18:59:54Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - Understanding Large Language Model Behaviors through Interactive Counterfactual Generation and Analysis [22.755345889167934]
本稿では,大規模言語モデル (LLM) の対実解析による探索を可能にする対話型可視化システムを提案する。
本システムは,意味論的に意味のある反事実を生成する新しいアルゴリズムを特徴とする。
LLM実践者とのユーザスタディと専門家とのインタビューは、システムのユーザビリティと有効性を示している。
論文 参考訳(メタデータ) (2024-04-23T19:57:03Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Affect Recognition in Conversations Using Large Language Models [9.689990547610664]
影響認識は人間のコミュニケーションにおいて重要な役割を担っている。
本研究では,会話における人間の影響を認識するための言語モデル(LLM)の能力について検討する。
論文 参考訳(メタデータ) (2023-09-22T14:11:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。