論文の概要: Horus: A Protocol for Trustless Delegation Under Uncertainty
- arxiv url: http://arxiv.org/abs/2507.00631v2
- Date: Wed, 02 Jul 2025 00:53:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.572341
- Title: Horus: A Protocol for Trustless Delegation Under Uncertainty
- Title(参考訳): Horus: 不確実性の下での信頼できないデリゲートのためのプロトコル
- Authors: David Shi, Kevin Joo,
- Abstract要約: 検証ゲームにおいて,コラテラライズされたクレームによる正当性を強制するプロトコルを提案する。
タスクは意図として公開され、解決者はそれらを満たすために競います。
どんな挑戦者でも、検証プロセスのトリガーとして挑戦することで結果に挑戦することができる。
不正なエージェントがスラッシュされ、正しい反対が報われ、誤検証自体を罰するエスカレーションパスが設けられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Correctness is an emergent property of systems where exposing error is cheaper than committing it. In dynamic, low-trust environments, autonomous AI agents benefit from delegating work to sub-agents, yet correctness cannot be assured through upfront specification or centralized oversight. We propose a protocol that enforces correctness through collateralized claims in a recursive verification game. Tasks are published as intents, and solvers compete to fulfill them. Selected solvers carry out tasks under risk, with correctness checked post hoc by verifiers. Any challenger can challenge a result by staking against it to trigger the verification process. Incorrect agents are slashed and correct opposition is rewarded, with an escalation path that penalizes erroneous verifiers themselves. When incentives are aligned across solvers, challengers, and verifiers, falsification conditions make correctness the Nash equilibrium.
- Abstract(参考訳): 正確性は、エラーの露見がコミットよりも安価であるシステムの創発的特性である。
動的で低信頼の環境では、自律的なAIエージェントはサブエージェントへの作業の委譲の恩恵を受けるが、事前仕様や集中的な監視を通じて正確性を保証することはできない。
本稿では,再帰的検証ゲームにおいて,コーラライズされたクレームによる正当性を強制するプロトコルを提案する。
タスクは意図として公開され、解決者はそれらを満たすために競います。
選択された解法は、検証者によって正当性を確認し、危険にさらされたタスクを実行する。
どんな挑戦者でも、検証プロセスのトリガーとして挑戦することで結果に挑戦することができる。
不正なエージェントがスラッシュされ、正しい反対が報われ、誤検証自体を罰するエスカレーションパスが設けられる。
インセンティブが解決者、挑戦者、検証者の間で一致している場合、ファルシフィケーション条件はナッシュ均衡を正す。
関連論文リスト
- Search-Based Correction of Reasoning Chains for Language Models [72.61861891295302]
CoT(Chain-of-Thought)推論は言語モデル(LM)の機能と透明性を向上した。
我々はCoTにおける各推論ステップを、その正確性を示す潜在変数で拡張する新しい自己補正フレームワークを導入する。
また,離散探索アルゴリズムであるサーチコレクタも導入した。
論文 参考訳(メタデータ) (2025-05-17T04:16:36Z) - Preemptive Detection and Correction of Misaligned Actions in LLM Agents [70.54226917774933]
InferActは、実行前に不整合アクションを検出する新しいアプローチである。
タイムリーな修正をユーザーに警告し、有害な結果を防ぐ。
InferActは、ミスアライメントされたアクション検出におけるベースラインに対するMarco-F1の最大20%の改善を実現している。
論文 参考訳(メタデータ) (2024-07-16T15:24:44Z) - SERENE: A Collusion Resilient Replication-based Verification Framework [0.4297070083645048]
衝突検出と緩和のソリューションは、信頼できるサードパーティサーバーの使用や、検証されたタスクを必要とすることが多い。
本稿では, 衝突作業者を検出し, 軽減する, 回復力のあるレプリケーションベースの検証フレームワークSERENEを提案する。
我々はSERENEの性能をStaabらと比較し、平均50%と60%の精度で検出精度と緩和精度を向上した。
論文 参考訳(メタデータ) (2024-04-17T14:11:31Z) - Formally Verifying a Real World Smart Contract [52.30656867727018]
われわれは、Solidityの最新バージョンで書かれた現実世界のスマートコントラクトを正式に検証できるツールを検索する。
本稿では,最近のSolidityで書かれた実世界のスマートコントラクトを正式に検証できるツールについて紹介する。
論文 参考訳(メタデータ) (2023-07-05T14:30:21Z) - Formalizing the Problem of Side Effect Regularization [81.97441214404247]
本稿では,補助ゲームフレームワークを用いたサイドエフェクト正規化のための公式な基準を提案する。
これらのゲームでは、エージェントは部分的に観測可能なマルコフ決定プロセスを解決する。
このPOMDPは、エージェントが将来的なタスクをこなす能力と、プロキシ報酬を交換することで解決されることを示す。
論文 参考訳(メタデータ) (2022-06-23T16:36:13Z) - Learning to Give Checkable Answers with Prover-Verifier Games [23.93694563816463]
Prover-Verifier Games (PVGs) は,学習エージェントが決定問題を検証可能な方法で解くことを奨励するゲーム理論フレームワークである。
我々は、同時かつ連続的なゲームを含むフレームワークの変種を分析し、その空間を、確実に所望の平衡を持つゲームのサブセットに絞り込む。
2つのアルゴリズムタスクに対するPVGのインスタンス化を開発し、実際に、検証者は信頼できない証明者から有用で信頼性の高い情報を受信できる堅牢な決定ルールを学習することを示す。
論文 参考訳(メタデータ) (2021-08-27T02:56:06Z) - Claim Check-Worthiness Detection as Positive Unlabelled Learning [53.24606510691877]
クレームチェックの信頼性検出はファクトチェックシステムにおいて重要な要素である。
これらの課題の根底にあるクレームチェックの信頼性検出における中心的な課題を照明する。
我々の最良の手法は、正の非競合学習の変種を用いて、これを自動的に修正する統一的なアプローチである。
論文 参考訳(メタデータ) (2020-03-05T16:06:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。