論文の概要: Right to History: A Sovereignty Kernel for Verifiable AI Agent Execution
- arxiv url: http://arxiv.org/abs/2602.20214v1
- Date: Mon, 23 Feb 2026 07:09:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.472329
- Title: Right to History: A Sovereignty Kernel for Verifiable AI Agent Execution
- Title(参考訳): 歴史への権利:検証可能なAIエージェント実行のための厳格なカーネル
- Authors: Jing Zhang,
- Abstract要約: 既存のシステムは、AIエージェントが何をしたか、独立して検証可能な記録を提供していません。
個人は、自身のハードウェア上で、すべてのAIエージェントアクションを完全かつ検証可能な記録を持つ権利を持つ。
- 参考スコア(独自算出の注目度): 8.55919915871212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents increasingly act on behalf of humans, yet no existing system provides a tamper-evident, independently verifiable record of what they did. As regulations such as the EU AI Act begin mandating automatic logging for high-risk AI systems, this gap carries concrete consequences -- especially for agents running on personal hardware, where no centralized provider controls the log. Extending Floridi's informational rights framework from data about individuals to actions performed on their behalf, this paper proposes the Right to History: the principle that individuals are entitled to a complete, verifiable record of every AI agent action on their own hardware. The paper formalizes this principle through five system invariants with structured proof sketches, and implements it in PunkGo, a Rust sovereignty kernel that unifies RFC 6962 Merkle tree audit logs, capability-based isolation, energy-budget governance, and a human-approval mechanism. Adversarial testing confirms all five invariants hold. Performance evaluation shows sub-1.3 ms median action latency, ~400 actions/sec throughput, and 448-byte Merkle inclusion proofs at 10,000 log entries.
- Abstract(参考訳): AIエージェントはますます人間に代わって行動しますが、既存のシステムでは、彼らが何をしたか、独立して検証可能な記録を提供していません。
EU AI Actのような規制が、リスクの高いAIシステムの自動ロギングを義務付け始めているため、このギャップは、特に集中型プロバイダがログを制御していないパーソナルハードウェア上で動作するエージェントに対して、具体的な結果をもたらす。
本稿では、フロリディの情報権利枠組みを、個人に関するデータから、その代理として行われた行動まで拡張し、個人が自身のハードウェア上ですべてのAIエージェントアクションを完全かつ検証可能な記録する権利である歴史の権利を提唱する。
PunkGoはRFC 6962 Merkleツリー監査ログを統一するRustの主権カーネルで、機能ベースのアイソレーション、エネルギー予算管理、人間による承認機構を備えている。
逆行テストは5つの不変量が保持されていることを確認します。
パフォーマンス評価では、サブ1.3msの動作遅延、400アクション/秒のスループット、および448バイトのMerkleインクルージョン証明が1万のログエントリで示されている。
関連論文リスト
- EigenAI: Deterministic Inference, Verifiable Results [3.231493128964671]
EigenAIは、EigenLayerの再試行エコシステムの上に構築された検証可能なAIプラットフォームである。
決定論的大言語モデル(LLM)推論エンジンと、暗号学的に保護された楽観的な再実行プロトコルを組み合わせる。
論文 参考訳(メタデータ) (2026-01-30T04:46:22Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - A Blockchain-Monitored Agentic AI Architecture for Trusted Perception-Reasoning-Action Pipelines [0.0]
自律的な意思決定におけるエージェントAIシステムの応用は、医療、スマートシティ、デジタル法医学、サプライチェーン管理の領域で増加している。
本稿では,ラングチェインをベースとしたマルチエージェントシステムと,一定の監視,ポリシー施行,エージェントアクションの不変監査性を保証するために,ブロックチェーンを許可した単一アーキテクチャモデルを提案する。
論文 参考訳(メタデータ) (2025-12-24T06:20:28Z) - Adaptive Attacks on Trusted Monitors Subvert AI Control Protocols [80.68060125494645]
プロトコルとモニタモデルを知っている信頼できないモデルによるアダプティブアタックについて検討する。
我々は、攻撃者がモデル出力に公知またはゼロショットプロンプトインジェクションを埋め込む単純な適応攻撃ベクトルをインスタンス化する。
論文 参考訳(メタデータ) (2025-10-10T15:12:44Z) - Policy-as-Prompt: Turning AI Governance Rules into Guardrails for AI Agents [0.19336815376402716]
我々は、構造化されていない設計成果物(RD、TDD、コードなど)を検証可能なランタイムガードレールに変換する規制機械学習フレームワークを導入します。
Promptメソッドとしての私たちのポリシーは、これらのドキュメントを読み、ソースリンクされたポリシーツリーを構築するためのリスクコントロールです。
システムは最小限の特権とデータ最小化を強制するために構築される。
論文 参考訳(メタデータ) (2025-09-28T17:36:52Z) - Evolution of AI Agent Registry Solutions: Centralized, Enterprise, and Distributed Approaches [13.123809945481405]
AIエージェントはクラウド、エンタープライズ、分散ドメインを横断して動作し、発見、能力交渉、アイデンティティ保証を可能にするレジストリインフラストラクチャの需要を生成する。
我々は,(1)MCPレジストリ(mcp.の分散出版),(2)A2Aエージェントカード(分散自己記述機能マニフェスト),(3)AGNTCYエージェントディレクトリサービス(IPFSカデミリアコンテンツルーティング,OCIアーティファクトストレージ,シグストア支援完全性),(4)Microsoft EntraエージェントID(暗号化,プライバシ保護ファクトモデル,認証されたアサーションを含む),(5)NANDAインデックスエージェントFactsの5つの重要なアプローチを分析する。
論文 参考訳(メタデータ) (2025-08-05T05:17:18Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - CANTXSec: A Deterministic Intrusion Detection and Prevention System for CAN Bus Monitoring ECU Activations [53.036288487863786]
物理ECUアクティベーションに基づく最初の決定論的侵入検知・防止システムであるCANTXSecを提案する。
CANバスの古典的な攻撃を検知・防止し、文献では調査されていない高度な攻撃を検知する。
物理テストベッド上での解法の有効性を実証し,攻撃の両クラスにおいて100%検出精度を達成し,100%のFIAを防止した。
論文 参考訳(メタデータ) (2025-05-14T13:37:07Z) - Automated Proof Generation for Rust Code via Self-Evolution [69.25795662658356]
私たちは、Rustコードの自動証明生成を可能にする、人書きスニペットの欠如を克服するフレームワークであるSAFEを紹介します。
SAFEは、細調整されたモデルの自己老化能力を訓練するために、多数の合成不正確な証明を再利用する。
我々は、人間の専門家によるベンチマークで52.52%の精度で達成し、GPT-4oのパフォーマンス14.39%を大きく上回った。
論文 参考訳(メタデータ) (2024-10-21T08:15:45Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。