論文の概要: Misconceptions, Pragmatism, and Value Tensions: Evaluating Students' Understanding and Perception of Generative AI for Education
- arxiv url: http://arxiv.org/abs/2410.22289v1
- Date: Tue, 29 Oct 2024 17:41:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:41:36.202817
- Title: Misconceptions, Pragmatism, and Value Tensions: Evaluating Students' Understanding and Perception of Generative AI for Education
- Title(参考訳): 誤解, プラグマティズム, 価値緊張--学生の教育における生成的AIの理解と認識を評価する
- Authors: Aditya Johri, Ashish Hingle, Johannes Schleiss,
- Abstract要約: 学生はこの技術のアーリーアダプターであり、非典型的手法で利用している。
学生は,1)GenAIの理解,2)GenAIの利用,3)教育における利用に関するメリット,欠点,倫理的問題について,その説明を求めた。
- 参考スコア(独自算出の注目度): 0.11704154007740832
- License:
- Abstract: In this research paper we examine undergraduate students' use of and perceptions of generative AI (GenAI). Students are early adopters of the technology, utilizing it in atypical ways and forming a range of perceptions and aspirations about it. To understand where and how students are using these tools and how they view them, we present findings from an open-ended survey response study with undergraduate students pursuing information technology degrees. Students were asked to describe 1) their understanding of GenAI; 2) their use of GenAI; 3) their opinions on the benefits, downsides, and ethical issues pertaining to its use in education; and 4) how they envision GenAI could ideally help them with their education. Findings show that students' definitions of GenAI differed substantially and included many misconceptions - some highlight it as a technique, an application, or a tool, while others described it as a type of AI. There was a wide variation in the use of GenAI by students, with two common uses being writing and coding. They identified the ability of GenAI to summarize information and its potential to personalize learning as an advantage. Students identified two primary ethical concerns with using GenAI: plagiarism and dependency, which means that students do not learn independently. They also cautioned that responses from GenAI applications are often untrustworthy and need verification. Overall, they appreciated that they could do things quickly with GenAI but were cautious as using the technology was not necessarily in their best long-term as it interfered with the learning process. In terms of aspirations for GenAI, students expressed both practical advantages and idealistic and improbable visions. They said it could serve as a tutor or coach and allow them to understand the material better. We discuss the implications of the findings for student learning and instruction.
- Abstract(参考訳): 本研究では,大学院生による生成AI(GenAI)の利用と認識について検討する。
学生はテクノロジーのアーリーアダプターであり、非定型的手法で利用し、それに対する様々な認識と願望を形成している。
学生がどのようなツールを使っているか,どのように見ているのかを理解するために,情報工学の学位を追求する大学生を対象にしたオープンエンド調査の結果を提示する。
生徒は説明を求められました
1)GenAIに対する理解
2)GenAIの使用
3 教育における利用に係る利益、欠点及び倫理上の問題についての意見
4)GenAIが教育を理想的に支援できると考えていること。
調査の結果、学生のGenAIの定義は大きく異なり、多くの誤解が含まれていたことが判明した。
学生によるGenAIの使用には幅広いバリエーションがあり、2つの一般的な使用法は筆記とコーディングであった。
彼らは、GenAIが情報を要約し、学習をパーソナライズする能力が有利であると認識した。
学生は、GenAIの使用に関する主要な倫理的関心事として、盗作主義と依存の2つを特定した。
また、GenAIアプリケーションからのレスポンスは信頼できないことが多く、検証が必要であることも警告した。
全体として、彼らはGenAIで迅速にできると評価したが、学習プロセスに干渉するため、この技術が必ずしも最善を尽くしていないことに慎重だった。
GenAIの願望という観点では、学生は実践的優位性と理想主義的かつ不可解なビジョンの両方を表現した。
教官やコーチとして機能し、素材をよりよく理解できるようにできる、と彼らは言った。
本研究は,学生の学習と指導における知見の意義について論じる。
関連論文リスト
- Analysis of Generative AI Policies in Computing Course Syllabi [3.7869332128069773]
2022年にChatGPTがリリースされて以来、ジェネレーティブAI(GenAI)は、全米の高等教育コンピューティング教室でますます使われている。
我々は、米国の54のR1機関から98のコンピューティングコースシラビを収集し、採用したGenAIポリシーと周囲の談話を調査した。
分析の結果,1)GenAI使用に関する指示は,コースの学術的整合性政策の一部であり,2)GenAI使用を禁止あるいは制限するシラビが多かった。
論文 参考訳(メタデータ) (2024-10-29T17:34:10Z) - Model-based Maintenance and Evolution with GenAI: A Look into the Future [47.93555901495955]
我々は、モデルベースエンジニアリング(MBM&E)の限界に対処する手段として、生成人工知能(GenAI)を用いることができると論じる。
我々は、エンジニアの学習曲線の削減、レコメンデーションによる効率の最大化、ドメイン問題を理解するための推論ツールとしてのGenAIの使用を提案する。
論文 参考訳(メタデータ) (2024-07-09T23:13:26Z) - Understanding Student and Academic Staff Perceptions of AI Use in Assessment and Feedback [0.0]
高等教育における人工知能(AI)と生成人工知能(GenAI)の台頭は、評価改革を必要としている。
本研究は,AIとGenAIツールを用いた学生と学術スタッフの経験を探索することによって,重要なギャップを解消する。
オンライン調査では、ベトナムの2つの大学とシンガポールの1つの大学から35人の研究スタッフと282人の学生のデータを収集した。
論文 参考訳(メタデータ) (2024-06-22T10:25:01Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Innovating Computer Programming Pedagogy: The AI-Lab Framework for
Generative AI Adoption [0.0]
我々は、中核的なプログラミングコースでGenAIを効果的に活用するために、学生を指導するフレームワーク「AI-Lab」を紹介した。
GenAIの誤りを特定し、修正することで、学生は学習プロセスを充実させる。
教育者にとって、AI-Labは、学習経験におけるGenAIの役割に対する学生の認識を探索するメカニズムを提供する。
論文 参考訳(メタデータ) (2023-08-23T17:20:37Z) - The AI generation gap: Are Gen Z students more interested in adopting
generative AI such as ChatGPT in teaching and learning than their Gen X and
Millennial Generation teachers? [0.0]
Gen Zの学生は一般的に、生成AI(GenAI)の潜在的なメリットについて楽観的だった
Gen XとGen Yの教師は、過度な信頼、倫理的、教育的な意味に関する懸念を高めた。
論文 参考訳(メタデータ) (2023-05-04T14:42:06Z) - Students' Voices on Generative AI: Perceptions, Benefits, and Challenges
in Higher Education [2.0711789781518752]
本研究では,ChatGPTなどのジェネレーティブAI(GenAI)技術の高等教育における大学生の認識について検討する。
学生は、パーソナライズされた学習支援、執筆とブレインストーミングの支援、研究と分析能力の可能性を認識した。
また, 正確性, プライバシー, 倫理的問題, 個人の発達, キャリアの見通し, 社会的価値への影響についても検討した。
論文 参考訳(メタデータ) (2023-04-29T15:53:38Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。