論文の概要: AI Literacy, Safety Awareness, and STEM Career Aspirations of Australian Secondary Students: Evaluating the Impact of Workshop Interventions
- arxiv url: http://arxiv.org/abs/2601.22486v1
- Date: Fri, 30 Jan 2026 02:55:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.179893
- Title: AI Literacy, Safety Awareness, and STEM Career Aspirations of Australian Secondary Students: Evaluating the Impact of Workshop Interventions
- Title(参考訳): オーストラリア中学生のAIリテラシー, 安全意識, STEMキャリア育成 : ワークショップ介入の効果評価
- Authors: Christian Bergh, Alexandra Vassar, Natasha Banks, Jessica Xu, Jake Renzella,
- Abstract要約: ディープフェイクやその他のタイプの合成メディアは、青年期の安全リスクを増大させる。
本研究は,AIオーストラリアにおけるワークショップによる介入の日がオーストラリア中等生に与える影響を評価する。
- 参考スコア(独自算出の注目度): 38.350232667249095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfakes and other forms of synthetic media pose growing safety risks for adolescents, yet evidence on students' exposure and related behaviours remains limited. This study evaluates the impact of Day of AI Australia's workshop-based intervention designed to improve AI literacy and conceptual understanding among Australian secondary students (Years 7-10). Using a mixed-methods approach with pre- and post-intervention surveys (N=205 pre; N=163 post), we analyse changes in students' ability to identify AI in everyday tools, their understanding of AI ethics, training, and safety, and their interest in STEM-related careers. Baseline data revealed notable synthetic media risks: 82.4% of students reported having seen deepfakes, 18.5% reported sharing them, and 7.3% reported creating them. Results show higher self-reported AI knowledge and confidence after the intervention, alongside improved recognition of AI in widely used platforms such as Netflix, Spotify, and TikTok. This pattern suggests a shift from seeing these tools as merely "algorithm-based" to recognising them as AI-driven systems. Students also reported increased interest in STEM careers post-workshop; however, effect sizes were small, indicating that sustained approaches beyond one-off workshops may be needed to influence longer-term aspirations. Overall, the findings support scalable AI literacy programs that pair foundational AI concepts with an explicit emphasis on synthetic media safety.
- Abstract(参考訳): ディープフェイクやその他のタイプの合成メディアは、青年期の安全リスクを増大させるが、学生の暴露や関連する行動に関する証拠は限られている。
本研究は, オーストラリア中等生のAIリテラシーと概念理解を改善するために, オーストラリアにおけるAIワークショップによる介入の日が与える影響を評価する(第7-10回)。
介入前および介入後の調査(N=205 pre; N=163 post)による混合方法論のアプローチを用いて、学生が日常のツールでAIを識別する能力の変化、AI倫理、トレーニング、安全性の理解、STEM関連のキャリアへの関心について分析する。
学生の82.4%がディープフェイクを見たと報告し、18.5%が共有したと報告し、7.3%がそれを作ったと報告している。
その結果、介入後の自己報告のAI知識と信頼性が向上し、Netflix、Spotify、TikTokといった広く使用されているプラットフォームにおけるAIの認識が向上した。
このパターンは、これらのツールを単に"アルゴリズムベース"と見なすことから、AI駆動システムとして認識することへの移行を示唆している。
学生はまた、STEMのポストワークショップへの関心も高まったが、効果の大きさは小さく、長期的な願望に影響を及ぼすためには、ワンオフワークショップを超えて持続的なアプローチが必要であることを示唆している。
全体として、研究結果は、AIの基本的な概念と、合成メディアの安全性を明確に重視する、スケーラブルなAIリテラシープログラムをサポートする。
関連論文リスト
- Industrialized Deception: The Collateral Effects of LLM-Generated Misinformation on Digital Ecosystems [47.03825808787752]
本稿では,文献レビューから実践的対策へ移行する。
本稿では,Large Language Models(LLM)とマルチモーダルシステムによるAI生成コンテンツの改善について報告する。
我々は, LLMに基づく検出, 接種アプローチ, および生成AIの二重利用特性を含む緩和戦略について論じる。
論文 参考訳(メタデータ) (2026-01-29T16:42:22Z) - Do Students Rely on AI? Analysis of Student-ChatGPT Conversations from a Field Study [10.71612026319996]
本研究は,各種STEMコースにおける簡単なクイズベースシナリオにおける315人の学生とAIの会話を分析した。
学生は全体としてAIへの依存度が低く、多くの学生は学習にAIを効果的に利用できなかった。
特定の行動メトリクスは、AIへの依存を強く予測し、AIの採用を説明する潜在的な行動メカニズムを強調します。
論文 参考訳(メタデータ) (2025-08-27T20:00:27Z) - AI Literacy as a Key Driver of User Experience in AI-Powered Assessment: Insights from Socratic Mind [2.0272430076690027]
本研究では,学生のAIリテラシーと,それ以前のAI技術への露出が,ソクラティックマインドに対する認識をいかに形作るかを検討する。
コンピュータサイエンス・ビジネスコースの309人の学部生のデータを収集した。
論文 参考訳(メタデータ) (2025-07-29T10:11:24Z) - Opting Out of Generative AI: a Behavioral Experiment on the Role of Education in Perplexity AI Avoidance [0.0]
本研究は,形式教育の違いがCAIの回避に結びついているかどうかを考察する。
発見は、AI導入における教育の中心的役割と、AI関連の研究における自己選択バイアスの役割を浮き彫りにする。
論文 参考訳(メタデータ) (2025-07-10T16:05:11Z) - Report on NSF Workshop on Science of Safe AI [75.96202715567088]
機械学習の新たな進歩は、社会問題に対する技術ベースのソリューションを開発する新たな機会につながっている。
AIの約束を果たすためには、正確でパフォーマンスが高く、安全で信頼性の高いAIベースのシステムを開発する方法に取り組む必要がある。
本報告はワークショップの安全性の異なる側面に対処した作業グループにおける議論の結果である。
論文 参考訳(メタデータ) (2025-06-24T18:55:29Z) - Social Scientists on the Role of AI in Research [2.2665233748698355]
本研究では,284件のアンケート結果と15件の社会科学者への半構造化インタビューについて,地域中心の調査結果を提示する。
我々は、ジェネレーティブAI(genAI)の普及に伴い、研究環境におけるAIの利用が社会科学者の間で著しく増加していることを発見した。
特に、自動化バイアス、デマシリング、研究の不正行為、複雑な解釈可能性、表現的害に関する倫理的懸念は、genAIに関連して提起される。
論文 参考訳(メタデータ) (2025-06-12T19:55:36Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Generative AI in Education: A Study of Educators' Awareness, Sentiments, and Influencing Factors [2.217351976766501]
本研究は,AI言語モデルに対する教員の経験と態度について考察する。
学習スタイルと生成AIに対する態度の相関は見つからない。
CS教育者は、生成するAIツールの技術的理解にはるかに自信を持っているが、AI生成された仕事を検出する能力にこれ以上自信がない。
論文 参考訳(メタデータ) (2024-03-22T19:21:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。