論文の概要: Understanding the Practices, Perceptions, and (Dis)Trust of Generative AI among Instructors: A Mixed-methods Study in the U.S. Higher Education
- arxiv url: http://arxiv.org/abs/2502.05770v1
- Date: Sun, 09 Feb 2025 04:10:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:33:10.239893
- Title: Understanding the Practices, Perceptions, and (Dis)Trust of Generative AI among Instructors: A Mixed-methods Study in the U.S. Higher Education
- Title(参考訳): インストラクタにおける生成AIの実践,知覚,および(ディス)トラストの理解--米国高等教育における混合手法による研究
- Authors: Wenhan Lyu, Shuang Zhang, Tingting, Chung, Yifan Sun, Yixuan Zhang,
- Abstract要約: 我々は1つの米国大学から178人のインストラクターを対象に、高等教育におけるGenAIの現在の実践、認識、信頼、不信について調査した。
我々の量的結果は、GenAIにおける信頼と不信は相互に関係しているが、高い信頼は必ずしも不信を低く含んでおらず、その逆も同様であることを示している。
質的な結果から、調査対象のインストラクターの信頼と不信のニュアンスな顕在化と、GenAIの校正的信頼を支える様々なアプローチが示された。
- 参考スコア(独自算出の注目度): 18.929643075615637
- License:
- Abstract: Generative AI (GenAI) has brought opportunities and challenges for higher education as it integrates into teaching and learning environments. As instructors navigate this new landscape, understanding their engagement with and attitudes toward GenAI is crucial. We surveyed 178 instructors from a single U.S. university to examine their current practices, perceptions, trust, and distrust of GenAI in higher education in March 2024. While most surveyed instructors reported moderate to high familiarity with GenAI-related concepts, their actual use of GenAI tools for direct instructional tasks remained limited. Our quantitative results show that trust and distrust in GenAI are related yet distinct; high trust does not necessarily imply low distrust, and vice versa. We also found significant differences in surveyed instructors' familiarity with GenAI across different trust and distrust groups. Our qualitative results show nuanced manifestations of trust and distrust among surveyed instructors and various approaches to support calibrated trust in GenAI. We discuss practical implications focused on (dis)trust calibration among instructors.
- Abstract(参考訳): ジェネレーティブAI(GenAI)は、教育と学習環境に統合されるため、高等教育の機会と課題をもたらしている。
インストラクターは、この新たな風景をナビゲートするため、GenAIへの関与と態度を理解することが不可欠である。
2024年3月に1つの米国大学から178人のインストラクターを対象に、高等教育におけるGenAIの現在の実践、認識、信頼、不信について調査を行った。
調査対象者の多くは、GenAI関連の概念に適度から高い習熟度を報告しているが、直接指導作業にGenAIツールを実際に使用していることは限られていた。
我々の量的結果は、GenAIにおける信頼と不信は相互に関係しているが、高い信頼は必ずしも不信を低く含んでおらず、その逆も同様であることを示している。
また,異なる信頼グループと不信グループ間で,インストラクターのGenAIに対する親しみ度に有意な差が認められた。
質的な結果から、調査対象のインストラクターの信頼と不信のニュアンスな顕在化と、GenAIの校正的信頼を支える様々なアプローチが示された。
インストラクター間の(非)トラスト校正に焦点をあてた実践的含意について論じる。
関連論文リスト
- Analysis of Generative AI Policies in Computing Course Syllabi [3.7869332128069773]
2022年にChatGPTがリリースされて以来、ジェネレーティブAI(GenAI)は、全米の高等教育コンピューティング教室でますます使われている。
我々は、米国の54のR1機関から98のコンピューティングコースシラビを収集し、採用したGenAIポリシーと周囲の談話を調査した。
分析の結果,1)GenAI使用に関する指示は,コースの学術的整合性政策の一部であり,2)GenAI使用を禁止あるいは制限するシラビが多かった。
論文 参考訳(メタデータ) (2024-10-29T17:34:10Z) - Hey GPT, Can You be More Racist? Analysis from Crowdsourced Attempts to Elicit Biased Content from Generative AI [41.96102438774773]
本研究は,GenAIツールから偏りのあるアウトプットを抽出するプロンプトの設計に参加者が挑戦する大学レベルのコンペから得られた知見を提示する。
我々は、競争の提出を定量的に質的に分析し、GenAIにおける多様なバイアスと、GenAIにおけるバイアスを誘発する参加者の戦略を同定する。
論文 参考訳(メタデータ) (2024-10-20T18:44:45Z) - Transforming Teachers' Roles and Agencies in the Era of Generative AI: Perceptions, Acceptance, Knowledge, and Practices [0.7416846035207727]
本稿では,ジェネレーティブ・人工知能(GenAI)が教員の役割や教育機関に与える影響について考察する。
教員の認識、知識、受容、実践に対処する包括的枠組みを提示する。
論文 参考訳(メタデータ) (2024-10-03T21:59:01Z) - Model-based Maintenance and Evolution with GenAI: A Look into the Future [47.93555901495955]
我々は、モデルベースエンジニアリング(MBM&E)の限界に対処する手段として、生成人工知能(GenAI)を用いることができると論じる。
我々は、エンジニアの学習曲線の削減、レコメンデーションによる効率の最大化、ドメイン問題を理解するための推論ツールとしてのGenAIの使用を提案する。
論文 参考訳(メタデータ) (2024-07-09T23:13:26Z) - Understanding Student and Academic Staff Perceptions of AI Use in Assessment and Feedback [0.0]
高等教育における人工知能(AI)と生成人工知能(GenAI)の台頭は、評価改革を必要としている。
本研究は,AIとGenAIツールを用いた学生と学術スタッフの経験を探索することによって,重要なギャップを解消する。
オンライン調査では、ベトナムの2つの大学とシンガポールの1つの大学から35人の研究スタッフと282人の学生のデータを収集した。
論文 参考訳(メタデータ) (2024-06-22T10:25:01Z) - Generative AI as a Learning Buddy and Teaching Assistant: Pre-service Teachers' Uses and Attitudes [0.8566597970144211]
我々は、Ghana PSTsが生成人工知能(GenAI)の応用に用いている167点を調査した。
我々は、PSTのGenAIに対する態度を形作る3つの重要な要因、教育、学習、倫理的・擁護的要因を特定した。
PSTは、GenAIアプリケーションが提供する情報の正確性と信頼性に関する懸念を表明している。
論文 参考訳(メタデータ) (2024-06-03T20:38:29Z) - Faithful Knowledge Distillation [75.59907631395849]
i) 教師と学生は、正しく分類されたデータセットのサンプルに近い点で意見が一致しないか、(ii) 蒸留した学生は、データセットのサンプルに関する教師と同じくらい自信があるか、という2つの重要な質問に焦点をあてる。
これらは、安全クリティカルな設定の中で、堅牢な教師から訓練された小さな学生ネットワークを配置することを考えると、重要な問題である。
論文 参考訳(メタデータ) (2023-06-07T13:41:55Z) - The AI generation gap: Are Gen Z students more interested in adopting
generative AI such as ChatGPT in teaching and learning than their Gen X and
Millennial Generation teachers? [0.0]
Gen Zの学生は一般的に、生成AI(GenAI)の潜在的なメリットについて楽観的だった
Gen XとGen Yの教師は、過度な信頼、倫理的、教育的な意味に関する懸念を高めた。
論文 参考訳(メタデータ) (2023-05-04T14:42:06Z) - Creation and Evaluation of a Pre-tertiary Artificial Intelligence (AI)
Curriculum [58.86139968005518]
香港大学(CUHK)-Jockey Club AI for the Future Project(AI4Future)は、第3次教育のためのAIカリキュラムを共同開発した。
工学と教育を専門とする14人の教授が、6つの中学校の17の校長と教師と協力してカリキュラムを共同作成した。
共同創造プロセスは、AIにおける教師の知識を高める様々なリソースを生み出し、その課題を教室に持ち込むための教師の自主性を育んだ。
論文 参考訳(メタデータ) (2021-01-19T11:26:19Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - How Much Can We Really Trust You? Towards Simple, Interpretable Trust
Quantification Metrics for Deep Neural Networks [94.65749466106664]
我々は思考実験を行い、信頼と信頼に関する2つの重要な疑問を探求する。
我々は、一連の質問に答える際の行動に基づいて、ディープニューラルネットワークの全体的な信頼性を評価するための一連のメトリクスを紹介します。
提案されたメトリクスは必ずしも完璧ではありませんが、よりよいメトリクスに向かって会話を推し進めることが望まれています。
論文 参考訳(メタデータ) (2020-09-12T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。