論文の概要: Understanding Human-AI Trust in Education
- arxiv url: http://arxiv.org/abs/2506.09160v1
- Date: Tue, 10 Jun 2025 18:15:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:01.851755
- Title: Understanding Human-AI Trust in Education
- Title(参考訳): 教育における人間-AI信頼の理解
- Authors: Griffin Pitts, Sanaz Motamedi,
- Abstract要約: 本研究では,人間的・システム的信頼が学生の快楽,信頼的意図,使用に対する行動意図,有用性にどのように影響するかを検討する。
本研究は,人間とAIの信頼に特有な新たな理論的枠組みの必要性を浮き彫りにし,適切な信頼を育むための実践的な洞察を提供するものである。
- 参考スコア(独自算出の注目度): 0.552480439325792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As AI chatbots become increasingly integrated in education, students are turning to these systems for guidance, feedback, and information. However, the anthropomorphic characteristics of these chatbots create ambiguity regarding whether students develop trust toward them as they would a human peer or instructor, based in interpersonal trust, or as they would any other piece of technology, based in technology trust. This ambiguity presents theoretical challenges, as interpersonal trust models may inappropriately ascribe human intentionality and morality to AI, while technology trust models were developed for non-social technologies, leaving their applicability to anthropomorphic systems unclear. To address this gap, we investigate how human-like and system-like trusting beliefs comparatively influence students' perceived enjoyment, trusting intention, behavioral intention to use, and perceived usefulness of an AI chatbot - factors associated with students' engagement and learning outcomes. Through partial least squares structural equation modeling, we found that human-like and system-like trust significantly influenced student perceptions, with varied effects. Human-like trust more strongly predicted trusting intention, while system-like trust better predicted behavioral intention and perceived usefulness. Both had similar effects on perceived enjoyment. Given the partial explanatory power of each type of trust, we propose that students develop a distinct form of trust with AI chatbots (human-AI trust) that differs from human-human and human-technology models of trust. Our findings highlight the need for new theoretical frameworks specific to human-AI trust and offer practical insights for fostering appropriately calibrated trust, which is critical for the effective adoption and pedagogical impact of AI in education.
- Abstract(参考訳): AIチャットボットが教育にますます統合されるにつれて、学生たちは指導、フィードバック、情報のためにこれらのシステムに目を向けている。
しかし、これらのチャットボットの人為的特徴は、学生が人間的仲間やインストラクターとして、対人的信頼に基づいて、あるいは技術的信頼に基づいて、他の技術の一部として、彼らに対する信頼を育むかどうかという曖昧さを生んでいる。
この曖昧さは、対人信頼モデルがAIに対する人間の意図と道徳を不適切に規定するのに対して、技術信頼モデルは非社会的技術のために開発され、人為的システムへの適用性は不明確である、という理論上の課題を提起する。
このギャップに対処するために、学生の快楽、信頼意図、使用に対する行動意図、AIチャットボットの有用性、学生のエンゲージメントや学習成果に関連する要因などに対する人間的およびシステム的信頼の信念がどのように影響するかを検討する。
部分最小二乗構造方程式モデリングにより,人的・システム的信頼は学生の知覚に大きく影響し,その影響は様々であった。
人間のような信頼はより強く信頼の意図を予測し、システムのような信頼は行動の意図を予測し、有用性を知覚する。
どちらも快楽感に類似した効果があった。
それぞれの信頼の部分的説明力を考えると、学生は人間-人間-人-テクノロジーの信頼モデルとは異なるAIチャットボット(人間-AI信頼)との異なる信頼形態を開発することを提案する。
本研究は,人間とAIの信頼に特有な新たな理論的枠組みの必要性を強調し,教育におけるAIの効果的な採用と教育的影響に欠かせない,適切に調整された信頼を育むための実践的洞察を提供するものである。
関連論文リスト
- Modeling the quantum-like dynamics of human reliability ratings in Human-AI interactions by interaction dependent Hamiltonians [0.0]
本研究では,人間とAIのインタラクションにおける信頼のダイナミクスをモデル化する量子ランダムウォークモデルについて検討する。
我々は、経験的パラメータを用いて異なるハミルトン人の使用を知らせることによって、人間とAIの相互作用における信頼の進化をモデル化する有望な手段が得られることを発見した。
論文 参考訳(メタデータ) (2025-04-11T03:23:00Z) - Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI and Its Role in the Acceptance of AI Technologies [12.175031903660972]
本稿では,AI技術を利用する意図に対する信頼の役割を説明する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
調査2では、米国住民の代表サンプルのデータを用いて、異なる信頼の次元について検討した。
論文 参考訳(メタデータ) (2022-03-23T19:18:19Z) - Trust in AI: Interpretability is not necessary or sufficient, while
black-box interaction is necessary and sufficient [0.0]
人工知能に対する人間の信頼の問題は、応用機械学習における最も基本的な問題の1つである。
我々は、AI-as-toolフレームワークを動機付けるために、人間自動信頼に関する統計的学習理論と社会学的レンズから抽出する。
モデルアクセスのはしごによる信頼における解釈可能性の役割を明らかにする。
論文 参考訳(メタデータ) (2022-02-10T19:59:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。