論文の概要: TEAS: Trusted Educational AI Standard: A Framework for Verifiable, Stable, Auditable, and Pedagogically Sound Learning Systems
- arxiv url: http://arxiv.org/abs/2601.06066v1
- Date: Sun, 28 Dec 2025 07:40:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.618928
- Title: TEAS: Trusted Educational AI Standard: A Framework for Verifiable, Stable, Auditable, and Pedagogically Sound Learning Systems
- Title(参考訳): TEAS: 信頼できる教育AI標準: 検証可能、安定、監査可能、教育的学習システムのためのフレームワーク
- Authors: Abu Syed,
- Abstract要約: TEAS(Trusted Educational AI Standard)は、4つの独立した柱上に構築された統合フレームワークである。
信頼性は主に、生のモデル能力ではなく、体系的なアーキテクチャに起因している、と私たちは主張する。
この洞察は、安価でオープンソースのモデルはデプロイメントグレードの信頼を達成でき、グローバルな学習環境にAIを安全に統合するためのスケーラブルで公平なパスを提供することを意味する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid integration of AI into education has prioritized capability over trustworthiness, creating significant risks. Real-world deployments reveal that even advanced models are insufficient without extensive architectural scaffolding to ensure reliability. Current evaluation frameworks are fragmented: institutional policies lack technical verification, pedagogical guidelines assume AI reliability, and technical metrics are context-agnostic. This leaves institutions without a unified standard for deployment readiness. This paper introduces TEAS (Trusted Educational AI Standard), an integrated framework built on four interdependent pillars: (1) Verifiability, grounding content in authoritative sources; (2) Stability, ensuring deterministic core knowledge; (3) Auditability, enabling independent institutional validation; and (4) Pedagogical Soundness, enforcing principles of active learning. We argue that trustworthiness stems primarily from systematic architecture, not raw model capability. This insight implies that affordable, open-source models can achieve deployment-grade trust, offering a scalable and equitable path to integrating AI safely into learning environments globally.
- Abstract(参考訳): 教育におけるAIの急速な統合は、信頼性よりも能力を優先し、重大なリスクを生み出している。
現実のデプロイメントでは、高度なモデルでさえ、信頼性を確保するために大規模なアーキテクチャの足場なしでは不十分であることが明らかになった。
現在の評価フレームワークは断片化されており、制度的なポリシーには技術的検証が欠如しており、教育ガイドラインはAIの信頼性を前提としており、技術的メトリクスは文脈に依存しない。
これにより、組織はデプロイの準備の統一された標準を欠くことになる。
TEAS(Trusted Educational AI Standard)は,(1)信頼性,信頼性,信頼性,安定性,決定論的コア知識の確保,(3)独立した制度的検証が可能な聴取性,(4)アクティブな学習の原則を強制する教育的健全性,の4つの柱上に構築された統合フレームワークである。
信頼性は主に、生のモデル能力ではなく、体系的なアーキテクチャに起因している、と私たちは主張する。
この洞察は、安価でオープンソースのモデルはデプロイメントグレードの信頼を達成でき、グローバルな学習環境にAIを安全に統合するためのスケーラブルで公平なパスを提供することを意味する。
関連論文リスト
- KnowRL: Teaching Language Models to Know What They Know [9.341830361844337]
本稿では,モデルの内部で実現可能性境界の理解を深める,シンプルだが強力なフレームワークであるKnowRLを提案する。
我々のフレームワークは、(i)イントロスペクション(i)モデルが判断するタスクを生成・分類する)と(ii)コンセンサスに基づく報酬(ii)の2つのコンポーネントを組み合わせています。
シードセットが小さかったり,外部監視がなかったりしても,精度は28%,F1では12%向上した。
論文 参考訳(メタデータ) (2025-10-13T13:47:14Z) - TAIBOM: Bringing Trustworthiness to AI-Enabled Systems [0.23332469289621785]
透明性とトレーサビリティを高めるために、SBOM(Software Bills of Materials)が重要になっている。
現在のフレームワークは、AIシステムのユニークな特徴を捉えていない。
我々は、SBOMの原則をAIドメインに拡張する新しいフレームワークであるTAIBOM(Trusted AI Bill of Materials)を紹介する。
論文 参考訳(メタデータ) (2025-10-02T16:17:07Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - The Architecture of Trust: A Framework for AI-Augmented Real Estate Valuation in the Era of Structured Data [0.0]
Uniform Appraisal dataset (UAD) 3.6の必須2026実装は、住宅資産の評価を物語報告から機械可読形式に変換する。
本稿では、コンピュータビジョン、自然言語処理、自律システムにおけるAIの進歩と並行して、この規制シフトを包括的に分析する。
技術的実装と機関的信頼要件に対処するAI付加評価のための3層フレームワークを開発する。
論文 参考訳(メタデータ) (2025-08-04T05:24:25Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - Meta-Sealing: A Revolutionizing Integrity Assurance Protocol for Transparent, Tamper-Proof, and Trustworthy AI System [0.0]
この研究は、AIシステムの整合性検証を根本的に変更する暗号フレームワークであるMeta-Sealingを紹介する。
このフレームワークは、高度な暗号と分散検証を組み合わせることで、数学的厳密さと計算効率の両方を達成する、暗黙の保証を提供する。
論文 参考訳(メタデータ) (2024-10-31T15:31:22Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。