論文の概要: Composable Attestation: A Generalized Framework for Continuous and Incremental Trust in AI-Driven Distributed Systems
- arxiv url: http://arxiv.org/abs/2603.02451v1
- Date: Mon, 02 Mar 2026 22:45:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.569658
- Title: Composable Attestation: A Generalized Framework for Continuous and Incremental Trust in AI-Driven Distributed Systems
- Title(参考訳): Composable Attestation: AI駆動分散システムにおける継続的およびインクリメンタル信頼のための汎用フレームワーク
- Authors: Sheng Sun, Sarah Evans,
- Abstract要約: 本稿では,分散システムにおける連続的・漸進的信頼のための汎用的な暗号フレームワークとして,コンポーザブル証明を提案する。
このような証明システムのコア特性を定義する厳密な数学的基盤を確立する。
このフレームワークのユーティリティは、セキュアなAIモデルの完全性検証、フェデレーション学習、ランタイム信頼保証といったアプリケーションにまで拡張されている。
- 参考スコア(独自算出の注目度): 4.2822349607372265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents composable attestation as a generalized cryptographic framework for Continuous and Incremental Trust in Distributed Systems,such as Artificial Intelligence (AI) computation, and Open Source Software (OSS) supply chain verification. We establish a rigorous mathematical foundation which is defining core properties of such attestation systems: composability, order independence, transitivity, determinism, inclusion, and dynamic component verification. In contrast to traditional attestation methodologies relying on monolithic verification, composable attestation facilitates modular, scalable, and cryptographically secured integrity verification adaptable to evolving system configurations. This work introduces generalized attestation proof generation and verification functions, implementable via a variety of cryptographic constructions, in which Merkle trees plays vital role in constructing the composable attestation proof. Alternative constructions, including accumulator-based schemes and multi-signature approaches, are also explored, each presenting distinct trade-offs in performance, security, and functionality. Formal analysis demonstrates the adherence of these implementations to the fundamental properties . The framework's utility extends to applications such as secure AI model integrity verification , federated learning, and runtime trust assurance. The concept of attestation inclusion is introduced, permitting incremental integration of new components without necessitating full system re-attestation. This generalized approach reinforce trust in AI computation and broader distributed computing environments through cryptographically verifiable proof mechanisms, building upon foundational concepts of bootstrapping trust.
- Abstract(参考訳): 本稿では,人工知能(AI)計算やオープンソースソフトウェア(OSS)サプライチェーン検証など,分散システムにおける連続的および漸進的信頼のための汎用的な暗号フレームワークとして,コンポーザブル検証を提案する。
我々は、構成性、順序独立性、推移性、決定性、包摂性、動的コンポーネント検証といった、このような証明システムのコア特性を定義する厳密な数学的基盤を確立する。
従来の検証手法がモノリシックな検証に依存しているのとは対照的に、構成可能な検証はモジュール的でスケーラブルで、暗号的に保証された整合性検証を進化するシステム構成に適応させることができる。
この研究は、様々な暗号構造を通じて実装可能な一般化された検証証明生成と検証機能を導入し、メルクル木は構成可能な検証証明を構築する上で重要な役割を担っている。
また、アキュムレータベースのスキームやマルチシグナチャアプローチなどの代替構成も検討され、それぞれがパフォーマンス、セキュリティ、機能において異なるトレードオフを示す。
形式解析は、これらの実装が基本的な性質に忠実であることを示す。
このフレームワークのユーティリティは、セキュアなAIモデルの完全性検証、フェデレーション学習、ランタイム信頼保証などのアプリケーションに拡張されている。
認証の包含という概念を導入し、システムの再検証を必要とせずに、新たなコンポーネントを段階的に統合することを可能にする。
この一般化されたアプローチは、暗号的に検証可能な証明メカニズムを通じて、AI計算とより広範な分散コンピューティング環境への信頼を強化し、信頼をブートストラップするという基本的な概念に基づいて構築する。
関連論文リスト
- Modelling Trust and Trusted Systems: A Category Theoretic Approach [0.0]
私たちは、カテゴリ内の要素、クレーム、結果、決定をオブジェクトとして定式化します。
この枠組みは信頼の確立を理解するための厳格なアプローチを提供する。
ブートランシャットダウンシーケンスやEvil Maid攻撃など,多数の実例を提示する。
論文 参考訳(メタデータ) (2026-02-11T21:08:51Z) - Binding Agent ID: Unleashing the Power of AI Agents with accountability and credibility [46.323590135279126]
BAID(Binding Agent ID)は、検証可能なユーザコードバインディングを確立するための総合的なアイデンティティ基盤である。
ブロックチェーンベースのID管理とzkVMベースの認証プロトコルの実現可能性を実証し、完全なプロトタイプシステムの実装と評価を行った。
論文 参考訳(メタデータ) (2025-12-19T13:01:54Z) - Context Lineage Assurance for Non-Human Identities in Critical Multi-Agent Systems [0.08316523707191924]
本稿では,アタッチメントのみのメルクル木構造に固定された系統検証のための暗号的基盤機構を提案する。
従来のA2Aモデルとは異なり、本手法ではエージェントと外部検証器の両方が暗号的にマルチホップ前駆体を検証できる。
並行して、A2Aエージェントカードを拡張して、明示的な識別認証プリミティブを組み込むことにより、NHI表現の正当性を確認することができる。
論文 参考訳(メタデータ) (2025-09-22T20:59:51Z) - Safe and Certifiable AI Systems: Concepts, Challenges, and Lessons Learned [45.44933002008943]
この白書は、T"UV AUSTRIA Trusted AIフレームワークを提示する。
エンド・ツー・エンドの監査カタログであり、機械学習システムの評価と認定のための方法論である。
セキュアなソフトウェア開発、機能要件、倫理とデータプライバシという3つの柱の上に構築されているのは、EU AI Actの高レベルの義務を、特定かつテスト可能な基準に翻訳するものです。
論文 参考訳(メタデータ) (2025-09-08T17:52:08Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - Probabilistic Bisimulation for Parameterized Anonymity and Uniformity Verification [5.806034991979994]
ビシミュレーションは確率的システムにおけるプロセス等価性の検証に不可欠である。
本稿では,有限状態確率系の無限族におけるビシミュレーションを解析するための新しい枠組みを提案する。
匿名性や均一性のような本質的な性質は、このフレームワーク内でエンコードされ、検証可能であることを示す。
論文 参考訳(メタデータ) (2025-05-15T04:56:53Z) - Confidence Estimation via Sequential Likelihood Mixing [46.69347918899963]
逐次近似混合に基づく信頼セット構築のための普遍的枠組みを提案する。
オンライン推定による逐次混合,ベイズ推定,後悔の不平等の基本的な関係を確立する。
古典的な設定に対して、より厳密な信頼シーケンスを導出することで、フレームワークのパワーを説明する。
論文 参考訳(メタデータ) (2025-02-20T16:16:34Z) - A Framework for the Security and Privacy of Biometric System Constructions under Defined Computational Assumptions [1.5446015139136167]
本稿では,安全な生体認証システムを構築するための公式な枠組みを提案する。
普遍的な構成可能性の原理を活用することで、個々のシステムコンポーネントのモジュラー解析と検証を可能にします。
論文 参考訳(メタデータ) (2024-11-26T11:10:11Z) - Multi-modal biometric authentication: Leveraging shared layer architectures for enhanced security [0.0]
本稿では, 顔, 声, 署名データを統合し, セキュリティ対策を強化する新しい生体認証システムを提案する。
我々のモデルアーキテクチャは、包括的な特徴抽出のためのモダリティ固有の拡張とともに、二重共有層を組み込んでいる。
提案手法は,認証精度とロバスト性を大幅に向上させ,高度にセキュアなID認証ソリューションを実現する。
論文 参考訳(メタデータ) (2024-11-04T14:27:10Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。