論文の概要: From Diagnosis to Inoculation: Building Cognitive Resistance to AI Disempowerment
- arxiv url: http://arxiv.org/abs/2602.15265v1
- Date: Mon, 16 Feb 2026 23:47:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.942212
- Title: From Diagnosis to Inoculation: Building Cognitive Resistance to AI Disempowerment
- Title(参考訳): 診断から接種へ:AIディエンシフィケーションに対する認知的抵抗の構築
- Authors: Aleksey Komissarov,
- Abstract要約: 8つの横断的な学習成果(LO)を中心に構築されたAIリテラシーフレームワークを提案する。
AIリテラシーは宣言的な知識だけでは獲得できない、と私は主張する。
教育学的起源の枠組みとシャーマらの経験的起源の分類学の収束について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent empirical research by Sharma et al. (2026) demonstrated that AI assistant interactions carry meaningful potential for situational human disempowerment, including reality distortion, value judgment distortion, and action distortion. While this work provides a critical diagnosis of the problem, concrete pedagogical interventions remain underexplored. I present an AI literacy framework built around eight cross-cutting Learning Outcomes (LOs), developed independently through teaching practice and subsequently found to align with Sharma et al.'s disempowerment taxonomy. I report a case study from a publicly available online course, where a co-teaching methodology--with AI serving as an active voice co-instructor--was used to deliver this framework. Drawing on inoculation theory (McGuire, 1961)--a well-established persuasion research framework recently applied to misinformation prebunking by the Cambridge school (van der Linden, 2022; Roozenbeek & van der Linden, 2019)--I argue that AI literacy cannot be acquired through declarative knowledge alone, but requires guided exposure to AI failure modes, including the sycophantic validation and authority projection patterns identified by Sharma et al. This application of inoculation theory to AI-specific distortion is, to my knowledge, novel. I discuss the convergence between the pedagogically-derived framework and Sharma et al.'s empirically-derived taxonomy, and argue that this convergence--two independent approaches arriving at similar problem descriptions--strengthens the case for both the diagnosis and the proposed educational response.
- Abstract(参考訳): Sharma et al (2026) による最近の実証研究は、AIアシスタントの相互作用が現実の歪み、価値判断の歪み、行動の歪みなど、状況的な人間の分散に有意義なポテンシャルを持つことを示した。
この研究は問題の批判的な診断を提供するが、具体的な教育的介入は未解明のままである。
本稿では,8つの横断的学習成果(LO)を中心に構築されたAIリテラシーフレームワークについて紹介する。
私は、公立のオンラインコースのケーススタディとして、AIがアクティブな音声コインストラクタとして機能する共学の方法論を、このフレームワークを提供するために利用した事例を報告します。(McGuire, 1961)-最近、ケンブリッジ大学の誤報(Van der Linden, 2022; Roozenbeek & van der Linden, 2019)---私は、AIリテラシーは宣言的な知識だけでは取得できませんが、シャマールらによって特定されたサイコファンティックな検証と権威予測パターンを含むAI障害モードへのガイドが要求されます。
本論では, 学際的枠組みとシャーマらの経験的起源の分類学との収束について論じるとともに, 同様の問題記述に到達した2つの独立的アプローチが, 診断と提案された教育的対応の両立を図っている。
関連論文リスト
- Beyond Explainable AI (XAI): An Overdue Paradigm Shift and Post-XAI Research Directions [95.59915390053588]
本研究では、ディープニューラルネットワーク(DNN)と大規模言語モデル(LLM)に焦点をあてる、説明可能な人工知能(XAI)アプローチに焦点を当てる。
より深い根本原因に起因する致命的な症状(2つのパラドックス、2つの概念的混乱、5つの誤った仮定)について論じる。
XAIの限界を超えて、信頼性と認定されたAI開発に向けた4つのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2026-02-27T16:58:27Z) - Towards Autonomous Mathematics Research [48.29504087871558]
Aletheiaは、自然言語のエンドツーエンドの解を反復的に生成し、検証し、修正する数学研究エージェントである。
具体的には、AletheiaはGemini Deep Thinkの高度なバージョンで、推論の問題に挑戦している。
我々は、オリンピアード問題から博士レベルのエクササイズまで、AI支援数学研究におけるいくつかのマイルストーンを通じて、アレクシアを実証する。
論文 参考訳(メタデータ) (2026-02-10T18:50:15Z) - Industrialized Deception: The Collateral Effects of LLM-Generated Misinformation on Digital Ecosystems [47.03825808787752]
本稿では,文献レビューから実践的対策へ移行する。
本稿では,Large Language Models(LLM)とマルチモーダルシステムによるAI生成コンテンツの改善について報告する。
我々は, LLMに基づく検出, 接種アプローチ, および生成AIの二重利用特性を含む緩和戦略について論じる。
論文 参考訳(メタデータ) (2026-01-29T16:42:22Z) - Emergent, not Immanent: A Baradian Reading of Explainable AI [37.51348424835944]
我々は、人間、文脈、解釈装置とのAIモデルの位置的絡み合いから解釈が現れることを論じる。
本稿では,創発的解釈を支援するXAIインタフェースの設計指針を提案する。
論文 参考訳(メタデータ) (2026-01-21T14:32:40Z) - Medical Reasoning in the Era of LLMs: A Systematic Review of Enhancement Techniques and Applications [59.721265428780946]
医学における大きな言語モデル(LLM)は印象的な能力を実現しているが、体系的で透明で検証可能な推論を行う能力に重大なギャップが残っている。
本稿は、この新興分野に関する最初の体系的なレビューを提供する。
本稿では,学習時間戦略とテスト時間メカニズムに分類した推論強化手法の分類法を提案する。
論文 参考訳(メタデータ) (2025-08-01T14:41:31Z) - (AI peers) are people learning from the same standpoint: Perception of AI characters in a Collaborative Science Investigation [0.0]
シナリオベースアセスメント(SBA)は、本物の社会的相互作用のコンテキストを提供するためのシミュレーションエージェントを導入する。
近年のテキスト・トゥ・ビデオ技術のようなマルチモーダルAIの進歩により、これらのエージェントはAI生成文字に拡張される。
本研究では,協調科学研究の文脈を反映したSBAにおいて,教師とチームメイトの役割を担っているAIキャラクタを学習者がどう感じているかを検討する。
論文 参考訳(メタデータ) (2025-06-06T15:29:11Z) - Distinguishing Fact from Fiction: Student Traits, Attitudes, and AI Hallucination Detection in Business School Assessment [2.3359837623080613]
本研究では,英国ビジネススクールにおいて,学術的スキル,認知的特徴,AI懐疑主義が,事実的不正確なAI生成反応(幻覚)を検出する能力にどのように影響するかを検討する。
幻覚の同定に成功したのは20%に過ぎず、強力な学業成績、解釈スキル思考、習熟度、AI懐疑主義が重要な予測因子として現れている。
論文 参考訳(メタデータ) (2025-05-28T18:39:57Z) - Systematic Literature Review: Explainable AI Definitions and Challenges in Education [0.0]
説明可能なAI(XAI)は、ブラックボックスのアルゴリズムプロセスを透明なものにしようと試みている。
本総説は,文学におけるXAIの諸定義について考察し,教育におけるXAIの課題について考察することを目的とする。
論文 参考訳(メタデータ) (2025-04-03T10:43:35Z) - Analyzing Character and Consciousness in AI-Generated Social Content: A
Case Study of Chirper, the AI Social Network [0.0]
この研究はAIの振る舞いを包括的に調査し、多様な設定がチャーパーの反応に与える影響を分析している。
一連の認知テストを通じて、この研究はチャーパーズの自己認識とパターン認識の能力を評価する。
この研究の興味深い側面は、チャーパーのハンドルやパーソナリティのタイプがパフォーマンスに与える影響を探ることである。
論文 参考訳(メタデータ) (2023-08-30T15:40:18Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。