論文の概要: What Drives Students' Use of AI Chatbots? Technology Acceptance in Conversational AI
- arxiv url: http://arxiv.org/abs/2602.20547v1
- Date: Tue, 24 Feb 2026 05:00:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.607278
- Title: What Drives Students' Use of AI Chatbots? Technology Acceptance in Conversational AI
- Title(参考訳): 学生のAIチャットボット利用を促すもの : 会話型AIにおける技術受容
- Authors: Griffin Pitts, Sanaz Motamedi,
- Abstract要約: 本研究は,学生が会話型AIの使用を意図した行動意図に,有用性と使いやすさがどのような関係があるかを検討する。
学生が会話型AIを使う意図を予測する上で,有用性は依然として最強であると認識されている。
信頼と主観的規範は有用性の知覚に著しく影響を及ぼす一方、快楽は使用意図に直接的および間接的に影響する。
- 参考スコア(独自算出の注目度): 0.17188280334580194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversational AI tools have been rapidly adopted by students and are becoming part of their learning routines. To understand what drives this adoption, we draw on the Technology Acceptance Model (TAM) and examine how perceived usefulness and perceived ease of use relate to students' behavioral intention to use conversational AI that generates responses for learning tasks. We extend TAM by incorporating trust, perceived enjoyment, and subjective norms as additional factors that capture social and affective influences and uncertainty around AI outputs. Using partial least squares structural equation modeling, we find perceived usefulness remains the strongest predictor of students' intention to use conversational AI. However, perceived ease of use does not exert a significant direct effect on behavioral intention once other factors are considered, operating instead indirectly through perceived usefulness. Trust and subjective norms significantly influence perceptions of usefulness, while perceived enjoyment exerts both a direct and indirect effect on usage intentions. These findings suggest that adoption decisions for conversational AI systems are influenced less by effort-related considerations and more by confidence in system outputs, affective engagement, and social context. Future research is needed to further examine how these acceptance relationships generalize across different conversational systems and usage contexts.
- Abstract(参考訳): 会話型AIツールは、学生によって急速に採用され、学習ルーチンの一部になっている。
この採用を駆動する要因を理解するため,我々は,TAM(Technology Acceptance Model)を参考に,学習タスクに応答する会話型AIを使用する学生の行動意図に,有用性と使いやすさがどのような関係があるかを検討する。
我々は、信頼、快楽、主観的規範を、AI出力に関する社会的および情緒的影響や不確実性を捉える追加要因として取り入れることで、TAMを拡張した。
部分最小二乗構造方程式モデリングを用いることで、学生が会話型AIを使う意図を予測できる最強の有効性を見いだすことができる。
しかし, 使用の容易さは, 他の要因が考慮されれば行動意図に有意な直接的な影響を与えず, その代わりに, 有用性を通じて間接的に機能する。
信頼と主観的規範は有用性の知覚に著しく影響を及ぼす一方、快楽は使用意図に直接的および間接的に影響する。
これらの結果から,会話型AIシステムの採用決定は,作業に関する考慮や,システムアウトプット,情緒的エンゲージメント,社会的文脈への信頼による影響が少ないことが示唆された。
今後の研究は、これらの受容関係が様々な会話システムや使用状況にまたがってどのように一般化されるかをさらに調べる必要がある。
関連論文リスト
- Learning Through Dialogue: Unpacking the Dynamics of Human-LLM Conversations on Political Issues [17.05441917302334]
大規模言語モデル(LLM)は、学習のための対話的パートナーとしてますます使われていますが、ユーザの学習とエンゲージメントをサポートする相互作用のダイナミクスは検討されています。
社会政治問題に関する397人の人間とLLMの会話におけるLLMと参加者のチャットの言語的特徴と相互作用的特徴を分析した。
論文 参考訳(メタデータ) (2026-01-12T18:10:21Z) - Human Cognitive Biases in Explanation-Based Interaction: The Case of Within and Between Session Order Effect [46.80756527630539]
Explanatory Interactive Learning (XIL)は、ユーザーが説明と対話することでAIモデルをカスタマイズし、修正できるように設計された強力な対話型学習フレームワークである。
近年の研究では、説明的相互作用が、提示された項目の順序がユーザの信頼に影響を及ぼし、批判的にフィードバックの質に影響を及ぼす、よく知られた認知バイアスである注文効果を誘発するのではないかという懸念が提起されている。
命令効果と説明的相互作用の相互作用を明らかにするために,一般的なXILタスクを模倣する2つの大規模ユーザスタディを実行した。
論文 参考訳(メタデータ) (2025-12-04T12:59:54Z) - AI Literacy as a Key Driver of User Experience in AI-Powered Assessment: Insights from Socratic Mind [2.0272430076690027]
本研究では,学生のAIリテラシーと,それ以前のAI技術への露出が,ソクラティックマインドに対する認識をいかに形作るかを検討する。
コンピュータサイエンス・ビジネスコースの309人の学部生のデータを収集した。
論文 参考訳(メタデータ) (2025-07-29T10:11:24Z) - Must Read: A Systematic Survey of Computational Persuasion [60.83151988635103]
AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
本調査では,AIによる説得の安全性,公平性,有効性を高めるための今後の研究方針について概説する。
論文 参考訳(メタデータ) (2025-05-12T17:26:31Z) - Understanding Learner-LLM Chatbot Interactions and the Impact of Prompting Guidelines [9.834055425277874]
本研究は,学習者とAIの相互作用を,参加者が効果的なプロンプトの構造化指導を受ける教育実験を通して調査する。
ユーザの行動を評価し,有効性を促進するために,107人のユーザから642のインタラクションのデータセットを解析した。
我々の研究は、ユーザーが大規模言語モデルとどのように関わり、AI支援コミュニケーションを強化するための構造化された指導の役割についてより深く理解している。
論文 参考訳(メタデータ) (2025-04-10T15:20:43Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。