論文の概要: EigenAI: Deterministic Inference, Verifiable Results
- arxiv url: http://arxiv.org/abs/2602.00182v1
- Date: Fri, 30 Jan 2026 04:46:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.034781
- Title: EigenAI: Deterministic Inference, Verifiable Results
- Title(参考訳): EigenAI: 決定論的推論、検証可能な結果
- Authors: David Ribeiro Alves, Vishnu Patankar, Matheus Pereira, Jamie Stephens, Nima Vaziri, Sreeram Kannan,
- Abstract要約: EigenAIは、EigenLayerの再試行エコシステムの上に構築された検証可能なAIプラットフォームである。
決定論的大言語モデル(LLM)推論エンジンと、暗号学的に保護された楽観的な再実行プロトコルを組み合わせる。
- 参考スコア(独自算出の注目度): 3.231493128964671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: EigenAI is a verifiable AI platform built on top of the EigenLayer restaking ecosystem. At a high level, it combines a deterministic large-language model (LLM) inference engine with a cryptoeconomically secured optimistic re-execution protocol so that every inference result can be publicly audited, reproduced, and, if necessary, economically enforced. An untrusted operator runs inference on a fixed GPU architecture, signs and encrypts the request and response, and publishes the encrypted log to EigenDA. During a challenge window, any watcher may request re-execution through EigenVerify; the result is then deterministically recomputed inside a trusted execution environment (TEE) with a threshold-released decryption key, allowing a public challenge with private data. Because inference itself is bit-exact, verification reduces to a byte-equality check, and a single honest replica suffices to detect fraud. We show how this architecture yields sovereign agents -- prediction-market judges, trading bots, and scientific assistants -- that enjoy state-of-the-art performance while inheriting security from Ethereum's validator base.
- Abstract(参考訳): EigenAIは、EigenLayerの再試行エコシステムの上に構築された検証可能なAIプラットフォームである。
高いレベルでは、決定論的大言語モデル(LLM)推論エンジンと暗号的に保証された楽観的な再実行プロトコルを組み合わせることで、すべての推論結果を公開監査、再生、そして必要に応じて経済的に強制することができる。
信頼できないオペレータは、固定されたGPUアーキテクチャ上で推論を実行し、リクエストとレスポンスの署名と暗号化を行い、暗号化されたログをEigenDAにパブリッシュする。
チャレンジウィンドウでは、任意のウォッチャーがEigenVerifyを通じて再実行を要求でき、結果は信頼された実行環境(TEE)内でしきい値がリリースされた復号鍵で決定的に再計算され、プライベートデータによる公開チャレンジが可能になる。
推論自体がビットエクササイズであるため、検証はバイト品質チェックに還元され、単一の正直なレプリカが不正を検出するのに十分である。
このアーキテクチャは、Ethereumのバリデータベースからセキュリティを継承しながら、最先端のパフォーマンスを享受する、ソブリンエージェント(予測市場審査員、トレーディングボット、科学アシスタント)をどのように生み出すかを示します。
関連論文リスト
- Preventing the Collapse of Peer Review Requires Verification-First AI [49.995126139461085]
我々は、真理結合、すなわち、過度に科学的真理をトラックする場所のスコアの厳密さを提案する。
プロキシ・ソブリン評価に向けた相転移を駆動する2つの力の形式化を行う。
論文 参考訳(メタデータ) (2026-01-23T17:17:32Z) - Proof of Trusted Execution: A Consensus Paradigm for Deterministic Blockchain Finality [0.391985484065646]
本稿では,再実行を再現するのではなく,合意が検証実行から生じる合意パラダイムとして,信頼された実行の証明(PoTE)を提案する。
実行は決定論的であり、プロポーサは公開ランダム性から一意に派生しているため、PoTEはフォークを避け、スロット・タイムのボトルネックを排除し、1ラウンドの検証でブロックをコミットする。
論文 参考訳(メタデータ) (2025-12-10T08:04:38Z) - SWAP: Towards Copyright Auditing of Soft Prompts via Sequential Watermarking [58.475471437150674]
ソフトプロンプト(SWAP)のための逐次透かしを提案する。
SWAPは、特定のディフェンダー指定のアウト・オブ・ディストリビューション・クラスを通じて、透かしを符号化する。
11のデータセットの実験では、SWAPの有効性、無害性、および潜在的適応攻撃に対する堅牢性を示す。
論文 参考訳(メタデータ) (2025-11-05T13:48:48Z) - VeriLLM: A Lightweight Framework for Publicly Verifiable Decentralized Inference [3.8760740008451156]
本稿では,分散言語モデル (LLM) 推論のための公開検証プロトコルであるVeriLLMを紹介する。
VeriLLMは、軽量な経験的再実行と暗号的なコミットメントを組み合わせることで、検証者は基礎となる推論コストの約1%で結果を検証することができる。
We show that VeriLLM achieve reliable public verifiability with least overhead。
論文 参考訳(メタデータ) (2025-09-29T04:07:32Z) - Benchmarking Fraud Detectors on Private Graph Data [70.4654745317714]
現在、多くの種類の不正は、グラフ上で動く自動検出アルゴリズムによって部分的に管理されている。
データ保有者が不正検知器の開発を第三者にアウトソースしようとするシナリオを考察する。
サードパーティは、不正検出をデータ保持者に送信し、これらのアルゴリズムをプライベートデータセットで評価し、その結果を公表する。
本システムに対する現実的なプライバシ攻撃を提案し,評価結果のみに基づいて個人データの匿名化を可能にする。
論文 参考訳(メタデータ) (2025-07-30T03:20:15Z) - On Immutable Memory Systems for Artificial Agents: A Blockchain-Indexed Automata-Theoretic Framework Using ECDH-Keyed Merkle Chains [0.0]
本稿では,暗号的に固定された決定論的計算フレームワークであるMerkle Automatonの概念を紹介する。
各エージェントのトランジション、メモリフラグメント、推論ステップは、オンチェーンでルートされたMerkle構造内で実行される。
このアーキテクチャはメモリをキャッシュではなく台帳として再設定する - 内容がプロトコルによって強制され、暗号によって拘束され、形式論理によって制約される。
論文 参考訳(メタデータ) (2025-06-16T08:43:56Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - Quantum Proofs of Deletion for Learning with Errors [91.3755431537592]
完全同型暗号方式として, 完全同型暗号方式を初めて構築する。
我々の主要な技術要素は、量子証明器が古典的検証器に量子状態の形でのLearning with Errors分布からのサンプルが削除されたことを納得させる対話的プロトコルである。
論文 参考訳(メタデータ) (2022-03-03T10:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。