論文の概要: Breakable Machine: A K-12 Classroom Game for Transformative AI Literacy Through Spoofing and eXplainable AI (XAI)
- arxiv url: http://arxiv.org/abs/2508.14201v1
- Date: Tue, 19 Aug 2025 18:49:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.248061
- Title: Breakable Machine: A K-12 Classroom Game for Transformative AI Literacy Through Spoofing and eXplainable AI (XAI)
- Title(参考訳): Breakable Machine: eXplainable AI(XAI)による変形型AIリテラシーのためのK-12クラスルームゲーム
- Authors: Olli Hilke, Nicolas Pope, Juho Kahila, Henriikka Vartiainen, Teemu Roos, Tuomo Parkki, Matti Tedre,
- Abstract要約: 本稿では,eXplainable AI(XAI)ベースの教室ゲーム「Breakable Machine」を提案する。
このゲームは生徒に、高信頼の誤分類を引き起こすために、外観や環境を操作することでイメージを偽造するよう促す。
AIモデルの構築に集中するのではなく、このアクティビティは、脆さ、バイアス、脆弱性を突破することに集中している。
- 参考スコア(独自算出の注目度): 2.4309013528867003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper, submitted to the special track on resources for teaching AI in K-12, presents an eXplainable AI (XAI)-based classroom game "Breakable Machine" for teaching critical, transformative AI literacy through adversarial play and interrogation of AI systems. Designed for learners aged 10-15, the game invites students to spoof an image classifier by manipulating their appearance or environment in order to trigger high-confidence misclassifications. Rather than focusing on building AI models, this activity centers on breaking them-exposing their brittleness, bias, and vulnerability through hands-on, embodied experimentation. The game includes an XAI view to help students visualize feature saliency, revealing how models attend to specific visual cues. A shared classroom leaderboard fosters collaborative inquiry and comparison of strategies, turning the classroom into a site for collective sensemaking. This approach reframes AI education by treating model failure and misclassification not as problems to be debugged, but as pedagogically rich opportunities to interrogate AI as a sociotechnical system. In doing so, the game supports students in developing data agency, ethical awareness, and a critical stance toward AI systems increasingly embedded in everyday life. The game and its source code are freely available.
- Abstract(参考訳): 本論文は,K-12でAIを教えるためのリソースに関する特別トラックに提出された,eXplainable AI(XAI)ベースの教室ゲーム"Breakable Machine"で,AIシステムの敵的プレイと尋問を通じて,批判的で変革的なAIリテラシーを教える。
10~15歳の学習者向けに設計されたこのゲームは、高信頼の誤分類を引き起こすために、外見や環境を操作することによって、画像分類器をスプープするよう学生に促す。
AIモデルの構築に集中するのではなく、このアクティビティは、手動で実施された実験を通じて、脆さ、バイアス、脆弱性を突破することに集中している。
ゲームにはXAIビューが含まれており、学生が機能の聖さを視覚化し、モデルが特定の視覚的手がかりにどのように出席するかを明らかにする。
共有教室のリーダーボードは、共同調査と戦略比較を奨励し、教室を集合的なセンスメイキングの場にする。
このアプローチは、モデル失敗と誤分類をデバッグすべき問題としてではなく、社会技術システムとしてAIを尋問する教育的に豊かな機会として扱うことで、AI教育を再編成する。
そうすることで、このゲームは、データエージェンシーの開発、倫理的意識、そして日々の生活にますます埋め込まれているAIシステムに対する批判的なスタンスにおいて、学生を支援します。
ゲームとそのソースコードは無料で入手できる。
関連論文リスト
- Trust and ethical considerations in a multi-modal, explainable AI-driven chatbot tutoring system: The case of collaboratively solving Rubik's Cube [13.560874044962429]
高校のAI教育における著名な倫理的問題は、データのプライバシー、情報漏洩、虐待的言語、公平性である。
本稿では,マルチモーダル・コラボレーティブ・プラットフォームにおける倫理的かつ信頼性の高い懸念に対処するために構築された技術コンポーネントについて述べる。
データプライバシでは、子どもや親、教師のインフォームドコンセントが、管理されるデータの中心にあることを確実にしたいと思っています。
論文 参考訳(メタデータ) (2024-01-30T16:33:21Z) - Beyond Reality: The Pivotal Role of Generative AI in the Metaverse [98.1561456565877]
本稿では、生成型AI技術がMetaverseをどう形成しているかを包括的に調査する。
我々は、AI生成文字による会話インタフェースを強化しているChatGPTやGPT-3といったテキスト生成モデルの応用を探求する。
また、現実的な仮想オブジェクトを作成する上で、Point-EやLumimithmicのような3Dモデル生成技術の可能性についても検討する。
論文 参考訳(メタデータ) (2023-07-28T05:44:20Z) - Assigning AI: Seven Approaches for Students, with Prompts [0.0]
本稿では,Large Language Models(LLM)の教育における転換的役割とその学習ツールとしての可能性について考察する。
AI-tutor、AI-coach、AI-mentor、AI-teammate、AI-tool、AI-simulator、AI-studentの7つのアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-13T03:36:36Z) - AI Audit: A Card Game to Reflect on Everyday AI Systems [21.75299649772085]
K-12AIリテラシーの重要な要素は、AIシステムの倫理的および社会的意味について学習者に教育することである。
ゲームベースの学習手法をAIリテラシーに適用する作業はほとんどない。
我々は,「AI Audit」という,中高生向けの競技カードゲームを開発した。
論文 参考訳(メタデータ) (2023-05-29T06:41:47Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Introducing Variational Autoencoders to High School Students [12.341543369402217]
本報告では,22名の学生を対象に,授業設計について解説し,パイロット研究の知見を共有している。
我々はWebベースのゲームを開発し、哲学的な比喩であるPlatoの洞窟を使って、VAEの仕組みを紹介した。
我々のアプローチは、学生に新しいAI概念を教えるのに効果的であることがわかった。
論文 参考訳(メタデータ) (2021-11-13T04:34:15Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。