論文の概要: From Diagnosis to Inoculation: Building Cognitive Resistance to AI Disempowerment
- arxiv url: http://arxiv.org/abs/2602.15265v1
- Date: Mon, 16 Feb 2026 23:47:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.942212
- Title: From Diagnosis to Inoculation: Building Cognitive Resistance to AI Disempowerment
- Title(参考訳): 診断から接種へ:AIディエンシフィケーションに対する認知的抵抗の構築
- Authors: Aleksey Komissarov,
- Abstract要約: 8つの横断的な学習成果(LO)を中心に構築されたAIリテラシーフレームワークを提案する。
AIリテラシーは宣言的な知識だけでは獲得できない、と私は主張する。
教育学的起源の枠組みとシャーマらの経験的起源の分類学の収束について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent empirical research by Sharma et al. (2026) demonstrated that AI assistant interactions carry meaningful potential for situational human disempowerment, including reality distortion, value judgment distortion, and action distortion. While this work provides a critical diagnosis of the problem, concrete pedagogical interventions remain underexplored. I present an AI literacy framework built around eight cross-cutting Learning Outcomes (LOs), developed independently through teaching practice and subsequently found to align with Sharma et al.'s disempowerment taxonomy. I report a case study from a publicly available online course, where a co-teaching methodology--with AI serving as an active voice co-instructor--was used to deliver this framework. Drawing on inoculation theory (McGuire, 1961)--a well-established persuasion research framework recently applied to misinformation prebunking by the Cambridge school (van der Linden, 2022; Roozenbeek & van der Linden, 2019)--I argue that AI literacy cannot be acquired through declarative knowledge alone, but requires guided exposure to AI failure modes, including the sycophantic validation and authority projection patterns identified by Sharma et al. This application of inoculation theory to AI-specific distortion is, to my knowledge, novel. I discuss the convergence between the pedagogically-derived framework and Sharma et al.'s empirically-derived taxonomy, and argue that this convergence--two independent approaches arriving at similar problem descriptions--strengthens the case for both the diagnosis and the proposed educational response.
- Abstract(参考訳): Sharma et al (2026) による最近の実証研究は、AIアシスタントの相互作用が現実の歪み、価値判断の歪み、行動の歪みなど、状況的な人間の分散に有意義なポテンシャルを持つことを示した。
この研究は問題の批判的な診断を提供するが、具体的な教育的介入は未解明のままである。
本稿では,8つの横断的学習成果(LO)を中心に構築されたAIリテラシーフレームワークについて紹介する。
私は、公立のオンラインコースのケーススタディとして、AIがアクティブな音声コインストラクタとして機能する共学の方法論を、このフレームワークを提供するために利用した事例を報告します。(McGuire, 1961)-最近、ケンブリッジ大学の誤報(Van der Linden, 2022; Roozenbeek & van der Linden, 2019)---私は、AIリテラシーは宣言的な知識だけでは取得できませんが、シャマールらによって特定されたサイコファンティックな検証と権威予測パターンを含むAI障害モードへのガイドが要求されます。
本論では, 学際的枠組みとシャーマらの経験的起源の分類学との収束について論じるとともに, 同様の問題記述に到達した2つの独立的アプローチが, 診断と提案された教育的対応の両立を図っている。
関連論文リスト
- Towards Autonomous Mathematics Research [48.29504087871558]
Aletheiaは、自然言語のエンドツーエンドの解を反復的に生成し、検証し、修正する数学研究エージェントである。
具体的には、AletheiaはGemini Deep Thinkの高度なバージョンで、推論の問題に挑戦している。
我々は、オリンピアード問題から博士レベルのエクササイズまで、AI支援数学研究におけるいくつかのマイルストーンを通じて、アレクシアを実証する。
論文 参考訳(メタデータ) (2026-02-10T18:50:15Z) - Industrialized Deception: The Collateral Effects of LLM-Generated Misinformation on Digital Ecosystems [47.03825808787752]
本稿では,文献レビューから実践的対策へ移行する。
本稿では,Large Language Models(LLM)とマルチモーダルシステムによるAI生成コンテンツの改善について報告する。
我々は, LLMに基づく検出, 接種アプローチ, および生成AIの二重利用特性を含む緩和戦略について論じる。
論文 参考訳(メタデータ) (2026-01-29T16:42:22Z) - Emergent, not Immanent: A Baradian Reading of Explainable AI [37.51348424835944]
我々は、人間、文脈、解釈装置とのAIモデルの位置的絡み合いから解釈が現れることを論じる。
本稿では,創発的解釈を支援するXAIインタフェースの設計指針を提案する。
論文 参考訳(メタデータ) (2026-01-21T14:32:40Z) - (AI peers) are people learning from the same standpoint: Perception of AI characters in a Collaborative Science Investigation [0.0]
シナリオベースアセスメント(SBA)は、本物の社会的相互作用のコンテキストを提供するためのシミュレーションエージェントを導入する。
近年のテキスト・トゥ・ビデオ技術のようなマルチモーダルAIの進歩により、これらのエージェントはAI生成文字に拡張される。
本研究では,協調科学研究の文脈を反映したSBAにおいて,教師とチームメイトの役割を担っているAIキャラクタを学習者がどう感じているかを検討する。
論文 参考訳(メタデータ) (2025-06-06T15:29:11Z) - Systematic Literature Review: Explainable AI Definitions and Challenges in Education [0.0]
説明可能なAI(XAI)は、ブラックボックスのアルゴリズムプロセスを透明なものにしようと試みている。
本総説は,文学におけるXAIの諸定義について考察し,教育におけるXAIの課題について考察することを目的とする。
論文 参考訳(メタデータ) (2025-04-03T10:43:35Z) - Analyzing Character and Consciousness in AI-Generated Social Content: A
Case Study of Chirper, the AI Social Network [0.0]
この研究はAIの振る舞いを包括的に調査し、多様な設定がチャーパーの反応に与える影響を分析している。
一連の認知テストを通じて、この研究はチャーパーズの自己認識とパターン認識の能力を評価する。
この研究の興味深い側面は、チャーパーのハンドルやパーソナリティのタイプがパフォーマンスに与える影響を探ることである。
論文 参考訳(メタデータ) (2023-08-30T15:40:18Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。