論文の概要: Deconstructing Student Perceptions of Generative AI (GenAI) through an
Expectancy Value Theory (EVT)-based Instrument
- arxiv url: http://arxiv.org/abs/2305.01186v1
- Date: Tue, 2 May 2023 03:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 15:23:45.204979
- Title: Deconstructing Student Perceptions of Generative AI (GenAI) through an
Expectancy Value Theory (EVT)-based Instrument
- Title(参考訳): 期待値理論(EVT)に基づく生成AI(GenAI)の学生認識の再構築
- Authors: Cecilia Ka Yuk Chan, Wenxin Zhou
- Abstract要約: 本研究は,高校生の認知と生成型AIを高等教育に活用する意図との関係について検討する。
学生のジェネレーティブAI, 知覚価値, 知覚コストに関する知識を測定するために, 質問紙調査を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study examines the relationship between student perceptions and their
intention to use generative AI in higher education. Drawing on Expectancy-Value
Theory (EVT), a questionnaire was developed to measure students' knowledge of
generative AI, perceived value, and perceived cost. A sample of 405 students
participated in the study, and confirmatory factor analysis was used to
validate the constructs. The results indicate a strong positive correlation
between perceived value and intention to use generative AI, and a weak negative
correlation between perceived cost and intention to use. As we continue to
explore the implications of generative AI in education and other domains, it is
crucial to carefully consider the potential long-term consequences and the
ethical dilemmas that may arise from widespread adoption.
- Abstract(参考訳): 本研究は,高等教育における生徒の知覚と生成型ai活用の意図との関係について検討する。
予測値理論 (EVT) に基づいて, 学生の生成的AI, 知覚的価値, 知覚的コストに関する知識を測定する質問紙を作成した。
この研究には405人の学生のサンプルが参加し、確認因子分析を用いて構造を検証した。
その結果、認識された価値と生成的AIの使用意図との間には強い正の相関がみられ、認識されたコストと使用意図との間には弱い負の相関がみられた。
教育等における生成的aiの意義を探究し続けていく中で、普及によって生じる潜在的な長期的影響と倫理的ジレンマを慎重に検討することが重要である。
関連論文リスト
- The Potential and Implications of Generative AI on HCI Education [10.557784268438779]
ジェネレーティブAI(GAI)は、さまざまな分野や分野において、直接的または間接的に教育と学習に影響を与える。
生成型AIを10週間の学部モジュールに組み込むことで得られた,教育的知見を報告する。
論文 参考訳(メタデータ) (2024-05-08T15:46:31Z) - Generative AI in Education: A Study of Educators' Awareness, Sentiments, and Influencing Factors [2.217351976766501]
本研究は,AI言語モデルに対する教員の経験と態度について考察する。
学習スタイルと生成AIに対する態度の相関は見つからない。
CS教育者は、生成するAIツールの技術的理解にはるかに自信を持っているが、AI生成された仕事を検出する能力にこれ以上自信がない。
論文 参考訳(メタデータ) (2024-03-22T19:21:29Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Contra generative AI detection in higher education assessments [0.0]
生成的AIの急速な進歩と普及は、特に教育において、従来の学術的整合性メカニズムの再評価を必要とする。
学術的整合性を維持するという文脈において、AI検出ツールの有効性、脆弱性、倫理的意味について検討する。
本稿では,AI活用を取り入れたロバストアセスメント手法と教育方針への戦略的シフトを提唱する。
論文 参考訳(メタデータ) (2023-12-08T18:46:44Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Violation of Expectation via Metacognitive Prompting Reduces Theory of
Mind Prediction Error in Large Language Models [0.0]
大規模言語モデル(LLM)は、心の理論(ToM)タスクにおいて、魅力的な習熟度を示す。
この、観察不能な精神状態を他人に伝える能力は、人間の社会的認知に不可欠であり、人間と人工知能(AI)の主観的関係において同様に重要であることが証明される。
論文 参考訳(メタデータ) (2023-10-10T20:05:13Z) - Homophily and Incentive Effects in Use of Algorithms [17.55279695774825]
本稿では,2つの要因がAIによる意思決定に与える影響を評価するために,クラウドソーシング・ヴィグネット研究を提案する。
まず、ホモフィリー(homophily)を検証します。
次に、インセンティブについて考えます -- ハイブリッドな意思決定環境に(既知の)コスト構造を組み込むには、どうすればよいのでしょう?
論文 参考訳(メタデータ) (2022-05-19T17:11:04Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Cognitive Diagnosis with Explicit Student Vector Estimation and
Unsupervised Question Matrix Learning [53.79108239032941]
本研究では,DINA の学生ベクトルを推定するための明示的な学生ベクトル推定法を提案する。
また,Q行列を自動的にラベル付けする双方向キャリブレーションアルゴリズム (HBCA) を提案する。
2つの実世界のデータセットによる実験結果から,ESVE-DINAはDINAモデルよりも精度が高く,HBCAによって自動的にラベル付けされたQ行列は,手動でラベル付けしたQ行列に匹敵する性能が得られることが示された。
論文 参考訳(メタデータ) (2022-03-01T03:53:19Z) - Personalized Education in the AI Era: What to Expect Next? [76.37000521334585]
パーソナライズ学習の目的は、学習者の強みに合致する効果的な知識獲得トラックをデザインし、目標を達成するために弱みをバイパスすることである。
近年、人工知能(AI)と機械学習(ML)の隆盛は、パーソナライズされた教育を強化するための新しい視点を広げています。
論文 参考訳(メタデータ) (2021-01-19T12:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。