論文の概要: AI to Learn 2.0: A Deliverable-Oriented Governance Framework and Maturity Rubric for Opaque AI in Learning-Intensive Domains
- arxiv url: http://arxiv.org/abs/2604.19751v1
- Date: Mon, 16 Mar 2026 11:44:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-05-04 02:32:14.041879
- Title: AI to Learn 2.0: A Deliverable-Oriented Governance Framework and Maturity Rubric for Opaque AI in Learning-Intensive Domains
- Title(参考訳): AI to Learn 2.0: 学習集約ドメインにおける、デリバリ可能なオブジェクト指向のガバナンスフレームワークと、不透明なAIのための成熟可能なルーブリック
- Authors: Seine A. Shintani,
- Abstract要約: ジェネレーティブAIは、現在のガバナンスフレームワークよりも早く研究、教育、プロフェッショナルな仕事に入り、AIによるアウトプットをどのように判断すべきかを特定できる。
本稿では,AI支援作業のためのデリバリ指向ガバナンスフレームワークであるLearning 2.0を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI is entering research, education, and professional work faster than current governance frameworks can specify how AI-assisted outputs should be judged in learning-intensive settings. The central problem is proxy failure: a polished artifact can be useful while no longer serving as credible evidence of the human understanding, judgment, or transfer ability that the work is supposed to cultivate or certify. This paper proposes AI to Learn 2.0, a deliverable-oriented governance framework for AI-assisted work. Rather than claiming element-wise novelty, it reorganizes adjacent ideas around the final deliverable package, distinguishes artifact residual from capability residual, and operationalizes the result through a five-part package, a seven-dimension maturity rubric, gate thresholds on critical dimensions, and a companion capability-evidence ladder. AI to Learn 2.0 allows opaque AI during exploration, drafting, hypothesis generation, and workflow design, but requires that the released deliverable be usable, auditable, transferable, and justifiable without the original large language model or cloud API. In learning-intensive contexts, it additionally requires context-appropriate human-attributable evidence of explanation or transfer. Worked scoring across contrastive cases, including coursework substitution, a symbolic-regression governance contrast, teacher-audited national-exam practice forms, and a self-hosted lecture-to-quiz pipeline with deterministic quality control, shows how the framework separates polished substitution workflows from bounded, auditable, and handoff-ready AI-assisted workflows. AI to Learn 2.0 is proposed as a governance instrument for structured third-party review where capability preservation, accountability, and validity boundaries matter.
- Abstract(参考訳): ジェネレーティブAIは、現在のガバナンスフレームワークよりも早く研究、教育、プロフェッショナルな仕事に入り、学習集約的な環境でAIによるアウトプットをどのように判断すべきかを特定できる。
研磨された人工物は、人間の理解、判断、伝達能力の信頼できる証拠としてもはや役に立たない一方で、その作品が栽培または認定されるはずである。
本稿では,AI支援作業のためのデリバリ指向ガバナンスフレームワークであるLearning 2.0を提案する。
要素ワイドのノベルティを主張するのではなく、最終パッケージの周辺に隣接するアイデアを再編成し、アーティファクトの残留物と能力の残存物を区別し、その結果を5部パッケージ、7次元の成熟ルーブリック、臨界次元のゲートしきい値、それに付随する機能証明はしごで操作する。
AI to Learn 2.0は、探索、ドラフト、仮説生成、ワークフロー設計の間、不透明なAIを可能にするが、リリースされた成果物は、元の大きな言語モデルやクラウドAPIなしで使用でき、監査可能、転送可能、正当化可能であることを要求する。
学習集約的な文脈では、文脈に適した人間による説明や伝達の証拠も必要である。
コースワークの代替、シンボリック・レグレス・ガバナンスのコントラスト、教師が監査した全国的な実践形式、決定論的品質制御を備えた自己ホスト型講義・ツー・クイズパイプラインなど、対照的なケースのスコアリングによって、このフレームワークは、洗練された置換ワークフローを、境界付き、監査可能、ハンドオフ可能なAI支援ワークフローから分離する方法を示している。
AI to Learn 2.0は、機能保存、説明責任、妥当性境界が重要となる構造化されたサードパーティレビューのためのガバナンス手段として提案されている。
関連論文リスト
- The AI Pyramid A Conceptual Framework for Workforce Capability in the Age of AI [2.134211474877041]
最近の証拠は、生成的AIが高度に教育された白い首輪作業に不釣り合いに影響を及ぼすことを示している。
本稿では,AIを介する経済における人的能力の組織化のための概念的枠組みであるAI Pyramidを提案する。
このフレームワークは、組織、教育システム、政府に対して、学習、測定、政策をAIによる業務の進化的な要求と整合させようとする意味を持っている。
論文 参考訳(メタデータ) (2026-01-10T09:27:56Z) - A Design Science Blueprint for an Orchestrated AI Assistant in Doctoral Supervision [7.136113739927491]
本研究は,社会技術仲介者として機能するAIアシスタントと共同パイロットのための設計科学の青写真である。
このようなシステムのリスクには、AI過信や学習の錯覚の可能性などが含まれる。
このコントリビューションは、組織が規律を越えて実施し、試行できるワークフローとガバナンスルールを備えた、先進的で文学的なデザインである。
論文 参考訳(メタデータ) (2025-10-22T04:20:35Z) - From Passive Tool to Socio-cognitive Teammate: A Conceptual Framework for Agentic AI in Human-AI Collaborative Learning [0.0]
我々は、ツールとしてのAIから、コラボレーションパートナとしてのAIへの移行をグラフ化する、新しい概念的フレームワークを提案する。
真の意識や共有意図を欠いたAIが真の協力者であるかどうかを検討する。
この区別は、教育におけるAIの教育、教育設計、そして将来の研究課題に重要な意味を持つ。
論文 参考訳(メタデータ) (2025-08-20T16:17:32Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Absolute Zero: Reinforced Self-play Reasoning with Zero Data [57.30662797376754]
検証可能な報奨付き強化学習(RLVR)は,大規模言語モデルの推論能力を高めることを約束している。
本稿では,AZR(Absolute Zero Reasoner)について紹介する。
AZRは、コーディングおよび数学的推論タスクにおける全体的なSOTA性能を達成し、既存のゼロセットモデルより優れている。
論文 参考訳(メタデータ) (2025-05-06T09:08:00Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。