論文の概要: MathLedger: A Verifiable Learning Substrate with Ledger-Attested Feedback
- arxiv url: http://arxiv.org/abs/2601.00816v1
- Date: Mon, 22 Dec 2025 19:27:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-11 18:48:17.518158
- Title: MathLedger: A Verifiable Learning Substrate with Ledger-Attested Feedback
- Title(参考訳): MathLedger: Ledger-Attested Feedbackによる検証可能な学習基盤
- Authors: Ismail Ahmad Abdullah,
- Abstract要約: 現代のAIシステムは異常なパフォーマンスを達成するが、不透明で検証不可能なままである。
我々は,形式的検証,暗号証明,学習ダイナミクスを統合した,検証可能なマシン認知のための基板であるMathLedgerを紹介する。
この貢献は非構造的であり、大規模な監査性を実現する台帳による学習の実践的なプロトタイプである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contemporary AI systems achieve extraordinary performance yet remain opaque and non-verifiable, creating a crisis of trust for safety-critical deployment. We introduce MathLedger, a substrate for verifiable machine cognition that integrates formal verification, cryptographic attestation, and learning dynamics into a single epistemic loop. The system implements Reflexive Formal Learning (RFL), a symbolic analogue of gradient descent where updates are driven by verifier outcomes rather than statistical loss. Phase I experiments validate the measurement and governance substrate under controlled conditions. CAL-EXP-3 validates measurement infrastructure (Delta p computation, variance tracking); separate stress tests confirm fail-closed governance triggers correctly under out-of-bounds conditions. No convergence or capability claims are made. The contribution is infrastructural: a working prototype of ledger-attested learning that enables auditability at scale. Keywords: verifiable learning, formal verification, cryptographic attestation, reflexive feedback, fail-closed governance
- Abstract(参考訳): 現代のAIシステムは、異常なパフォーマンスを達成するが、不透明で検証不可能であり、安全クリティカルなデプロイメントに対する信頼の危機を生み出している。
本研究では,形式的検証,暗号証明,ダイナミクスの学習をひとつのエピステミックループに統合する,検証可能なマシン認識のための基板であるMathLedgerを紹介する。
このシステムは回帰形式学習(Reflexive Formal Learning, RFL)を実装している。
第1相実験では, 制御条件下での測定およびガバナンス基質の評価を行った。
CAL-EXP-3は測定インフラストラクチャ(デルタp計算、分散トラッキング)を検証する。
収束や能力の主張は行われない。
この貢献は非構造的であり、大規模な監査性を実現する台帳による学習の実践的なプロトタイプである。
キーワード:検証可能な学習、正式な検証、暗号化証明、反射フィードバック、フェールクローズドガバナンス
関連論文リスト
- Beyond Perplexity: A Lightweight Benchmark for Knowledge Retention in Supervised Fine-Tuning [11.44153219263221]
KR-Testは、事実学習と言語学を区別するために設計された、軽量でコーパスによる評価フレームワークである。
我々は、"盲対オラクル"のベースライン分析を通じて、フレームワークの完全性を検証する。
言語収束と知識保持の微粒な解離を明らかにすることで、KR-Testは微調整力学の解釈可能性を高める。
論文 参考訳(メタデータ) (2026-01-07T01:34:28Z) - Refinement Provenance Inference: Detecting LLM-Refined Training Prompts from Model Behavior [58.751981587234916]
本稿では,Refinement Provenance Inference (RPI)監査タスクをRefinement Provenance Inference (RPI)として定式化する。
本稿では,ロジットレベルの信号で教師が強制する可能性機能を融合させるロジットベースのフレームワークであるReProを提案する。
トレーニング中、ReProはシャドウファインチューニングを通じて転送可能な表現を学び、訓練データアクセスなしで、見えない犠牲者の証明を推測するために軽量のリニアヘッドを使用する。
論文 参考訳(メタデータ) (2026-01-05T10:16:41Z) - When Does Verification Pay Off? A Closer Look at LLMs as Solution Verifiers [11.937771430269201]
本稿では,37大言語モデル(LLM)の体系的研究について述べる。
自己検証と同一家族内および異なる家族間での検証を比較した。
検証者ゲインや偽陽性率尺度などのメトリクスをモデルサイズと後トレーニングで分析し,データセットの妥当性の違いを特徴付ける。
論文 参考訳(メタデータ) (2025-12-02T00:51:14Z) - Validating Solidity Code Defects using Symbolic and Concrete Execution powered by Large Language Models [0.0]
本稿では,Slither-based detectors, Large Language Models (LLMs), Kontrol, Forgeを統合した新しい検出パイプラインを提案する。
私たちのアプローチは、欠陥を確実に検出し、証明を生成するように設計されています。
論文 参考訳(メタデータ) (2025-09-16T12:46:11Z) - Learning Verifiable Control Policies Using Relaxed Verification [49.81690518952909]
本研究は,実行中にプロパティを評価可能なポリシを目標として,トレーニングを通じて検証を実施することを提案する。
アプローチは、微分可能な到達可能性分析を使用して、新しいコンポーネントを損失関数に組み込むことである。
論文 参考訳(メタデータ) (2025-04-23T16:54:35Z) - Unsupervised Continual Anomaly Detection with Contrastively-learned
Prompt [80.43623986759691]
UCADと呼ばれる新しい非教師付き連続異常検出フレームワークを提案する。
このフレームワークは、対照的に学習したプロンプトを通じて、UDAに継続的な学習能力を持たせる。
我々は総合的な実験を行い、教師なし連続異常検出とセグメンテーションのベンチマークを設定した。
論文 参考訳(メタデータ) (2024-01-02T03:37:11Z) - Conformal Policy Learning for Sensorimotor Control Under Distribution
Shifts [61.929388479847525]
本稿では,センサコントローラの観測値の分布変化を検知・応答する問題に焦点をあてる。
鍵となる考え方は、整合量子を入力として取ることができるスイッチングポリシーの設計である。
本稿では, 基本方針を異なる特性で切り替えるために, 共形量子関数を用いてこのようなポリシーを設計する方法を示す。
論文 参考訳(メタデータ) (2023-11-02T17:59:30Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - Learning Stability Certificates from Data [19.381365606166725]
我々は,軌道データのみから認証関数を学習するアルゴリズムを開発した。
このような一般化誤差境界を大域的安定性保証に変換する。
複雑な力学の証明を効率的に学習できることを実証的に実証する。
論文 参考訳(メタデータ) (2020-08-13T14:58:42Z) - Verification of ML Systems via Reparameterization [6.482926592121413]
確率的プログラムを定理証明器で自動的に表現する方法を示す。
また、ベイズ仮説テストで用いられるヌルモデルは、人口統計学的パリティ(英語版)と呼ばれる公平性基準を満たすことを証明した。
論文 参考訳(メタデータ) (2020-07-14T02:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。