論文の概要: Understanding Critical Thinking in Generative Artificial Intelligence Use: Development, Validation, and Correlates of the Critical Thinking in AI Use Scale
- arxiv url: http://arxiv.org/abs/2512.12413v1
- Date: Sat, 13 Dec 2025 17:56:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.251297
- Title: Understanding Critical Thinking in Generative Artificial Intelligence Use: Development, Validation, and Correlates of the Critical Thinking in AI Use Scale
- Title(参考訳): 生成的人工知能利用における批判的思考の理解:AI利用尺度における批判的思考の開発、検証、関連性
- Authors: Gabriel R. Lau, Wei Yan Low, Louis Tay, Ysabel Guevarra, Dragan Gašević, Andree Hartanto,
- Abstract要約: 本研究はAI利用における批判的思考を,AI生成情報の源泉と内容の検証のための配置傾向として概念化する。
我々は,AI利用尺度における13項目の批判的思考を開発し,そのノモロジカルネットワークをマッピングした。
研究3と4では、AI使用における批判的思考が、開放性、外向性、ポジティブな特性の影響、AI使用頻度に肯定的な関連があることが明らかにされた。
- 参考スコア(独自算出の注目度): 1.0946458347622612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI tools are increasingly embedded in everyday work and learning, yet their fluency, opacity, and propensity to hallucinate mean that users must critically evaluate AI outputs rather than accept them at face value. The present research conceptualises critical thinking in AI use as a dispositional tendency to verify the source and content of AI-generated information, to understand how models work and where they fail, and to reflect on the broader implications of relying on AI. Across six studies (N = 1365), we developed and validated the 13-item critical thinking in AI use scale and mapped its nomological network. Study 1 generated and content-validated scale items. Study 2 supported a three-factor structure (Verification, Motivation, and Reflection). Studies 3, 4, and 5 confirmed this higher-order model, demonstrated internal consistency and test-retest reliability, strong factor loadings, sex invariance, and convergent and discriminant validity. Studies 3 and 4 further revealed that critical thinking in AI use was positively associated with openness, extraversion, positive trait affect, and frequency of AI use. Lastly, Study 6 demonstrated criterion validity of the scale, with higher critical thinking in AI use scores predicting more frequent and diverse verification strategies, greater veracity-judgement accuracy in a novel and naturalistic ChatGPT-powered fact-checking task, and deeper reflection about responsible AI. Taken together, the current work clarifies why and how people exercise oversight over generative AI outputs and provides a validated scale and ecologically grounded task paradigm to support theory testing, cross-group, and longitudinal research on critical engagement with generative AI outputs.
- Abstract(参考訳): ジェネレーティブなAIツールは日々の作業や学習に埋もれているが、その頻度、不透明さ、そして幻覚に対する正当性は、ユーザーが顔の価値で受け入れるよりも、AIのアウトプットを批判的に評価しなければならないことを意味している。
本研究は、AI利用における批判的思考を、AI生成情報のソースと内容の検証、モデルがどのように機能し、どこで失敗するかの理解、そしてAIに依存することのより広範な影響を反映する配置的傾向として概念化する。
6つの研究 (N = 1365) を通じて、AI利用尺度における13項目の批判的思考を開発し、そのノモロジーネットワークをマッピングした。
学習1 生成と内容検証の尺度項目。
研究2は3要素構造(検証,モチベーション,反射)を支持した。
研究3, 4, 5は, この高次モデルを確認し, 内部整合性, テスト-再テスト信頼性, 強い因子負荷, 性差, 収束性, 差別性について検証した。
研究3と4では、AI使用における批判的思考が、開放性、外向性、ポジティブな特性の影響、AI使用頻度に肯定的な関連があることが明らかにされた。
最後に、Studio 6では、AI使用のスコアにおいてより頻繁で多様な検証戦略を予測すること、新規で自然主義的なChatGPTによる事実チェックタスクにおける高い妥当性判断精度、責任のあるAIに関する深いリフレクションなど、この尺度の基準正当性を実証した。
まとめると、現在の研究は、なぜ人々が生成AI出力を監督し、どのようにして人々が生成AI出力を監督するかを明確にし、理論テスト、クロスグループ、および生成AI出力に対する批判的関与に関する縦断的な研究をサポートするための、検証済みのスケールと生態学的基盤のタスクパラダイムを提供する。
関連論文リスト
- AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Do Students Rely on AI? Analysis of Student-ChatGPT Conversations from a Field Study [10.71612026319996]
本研究は,各種STEMコースにおける簡単なクイズベースシナリオにおける315人の学生とAIの会話を分析した。
学生は全体としてAIへの依存度が低く、多くの学生は学習にAIを効果的に利用できなかった。
特定の行動メトリクスは、AIへの依存を強く予測し、AIの採用を説明する潜在的な行動メカニズムを強調します。
論文 参考訳(メタデータ) (2025-08-27T20:00:27Z) - The next question after Turing's question: Introducing the Grow-AI test [51.56484100374058]
本研究は,GROW-AIと呼ばれる人工知能評価の枠組みを拡張することを目的としている。
GROW-AIは、チューリングテストの自然な後継者である"Can Machine grow up?
この作品の独創性は、人間の世界から人工知能への「成長」過程の概念的な変換にある。
論文 参考訳(メタデータ) (2025-08-22T10:19:42Z) - A Review of Generative AI in Computer Science Education: Challenges and Opportunities in Accuracy, Authenticity, and Assessment [2.1891582280781634]
本稿では、コンピュータサイエンス教育におけるChatGPTやClaudeといったジェネレーティブAIツールの利用について調査する。
ジェネレーティブAIは、AI幻覚、エラーの伝播、バイアス、AI支援コンテンツと学生認可コンテンツの間のぼやけた線などの懸念を提起する。
論文 参考訳(メタデータ) (2025-06-17T19:20:58Z) - Rigor in AI: Doing Rigorous AI Work Requires a Broader, Responsible AI-Informed Conception of Rigor [83.99510317617694]
我々は、厳格なAI研究と実践が持つべきものに対するより広範な概念が必要とされると論じている。
我々は,AIコミュニティの作業に関する対話に有用な言語とフレームワークを提供することを目標としている。
論文 参考訳(メタデータ) (2025-06-17T15:44:41Z) - Beyond Detection: Designing AI-Resilient Assessments with Automated Feedback Tool to Foster Critical Thinking [0.0]
本研究は, 検出ではなく, 評価設計に基づく能動的AIレジリエントソリューションを提案する。
WebベースのPythonツールで、Bloomの分類と高度な自然言語処理技術を統合する。
これは、タスクがリコールや要約のような下位の思考や、分析、評価、作成といった上位のスキルを目標にしているかどうかを教育者が判断するのに役立つ。
論文 参考訳(メタデータ) (2025-03-30T23:13:00Z) - General Scales Unlock AI Evaluation with Explanatory and Predictive Power [57.7995945974989]
ベンチマークはAIの進歩を導くものだが、汎用AIシステムには限られた説明力と予測力を提供している。
私たちは、一般的なAIベンチマークが実際に何を計測しているかを説明することができる、AI評価のための一般的な尺度を紹介します。
私たちの完全に自動化された方法論は、飽和しない一般的なスケールにインスタンス要求を配置する18の新しく作られたルーリックの上に構築されます。
論文 参考訳(メタデータ) (2025-03-09T01:13:56Z) - Heuristics and Biases in AI Decision-Making: Implications for Responsible AGI [0.0]
GPT-4o, Gemma 2, Llama 3.1の3大言語モデル(LLM)における認知バイアスの存在について検討した。
この研究は、9つの確立された認知バイアスにわたる1,500の実験を使用して、モデルの反応と一貫性を評価する。
論文 参考訳(メタデータ) (2024-09-26T05:34:00Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。