論文の概要: AGORA: Open More and Trust Less in Binary Verification Service
- arxiv url: http://arxiv.org/abs/2407.15062v1
- Date: Sun, 21 Jul 2024 05:29:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-23 19:28:49.225920
- Title: AGORA: Open More and Trust Less in Binary Verification Service
- Title(参考訳): AGORA:バイナリ検証サービスのオープン化と信頼性の低下
- Authors: Hongbo Chen, Quan Zhou, Sen Yang, Xing Han, Fan Zhang, Danfeng Zhang, Xiaofeng Wang,
- Abstract要約: 本稿では,この課題を克服するために設計された新しいバイナリ検証サービスであるAGORAを紹介する。
あるタスクは信頼できないエンティティに委譲でき、対応するバリデーターは信頼されたコンピューティングベースに確実に格納される。
ブロックチェーンベースの新たな報奨金タスクマネージャを通じて、クラウドソーシングを使用して、定理証明者の信頼を取り除く。
- 参考スコア(独自算出の注目度): 16.429846973928512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary verification plays a pivotal role in software security, yet building a verification service that is both open and trustworthy poses a formidable challenge. In this paper, we introduce a novel binary verification service, AGORA, scrupulously designed to overcome the challenge. At the heart of this approach lies a strategic insight: certain tasks can be delegated to untrusted entities, while the corresponding validators are securely housed within the trusted computing base (TCB). AGORA can validate untrusted assertions generated for versatile policies. Through a novel blockchain-based bounty task manager, it also utilizes crowdsourcing to remove trust in theorem provers. These synergistic techniques successfully ameliorate the TCB size burden associated with two procedures: binary analysis and theorem proving. The design of AGORA allows untrusted parties to participate in these complex processes. Moreover, based on running the optimized TCB within trusted execution environments and recording the verification process on a blockchain, the public can audit the correctness of verification results. By implementing verification workflows for software-based fault isolation policy and side-channel mitigation, our evaluation demonstrates the efficacy of AGORA.
- Abstract(参考訳): バイナリ検証はソフトウェアセキュリティにおいて重要な役割を担いますが、オープンで信頼性の高い検証サービスを構築することは、非常に難しい課題になります。
本稿では,この課題を克服するために,新しいバイナリ検証サービスであるAGORAを紹介する。
特定のタスクは信頼できないエンティティに委譲でき、対応するバリデーターは信頼されたコンピューティングベース(TCB)に確実に格納される。
AGORAは、多目的ポリシーのために生成された信頼できないアサーションを検証することができる。
ブロックチェーンベースの新たな報奨金タスクマネージャを通じて、クラウドソーシングを使用して、定理証明者の信頼を取り除く。
これらの相乗的手法は、二分法解析と定理証明という2つの手順に関連したTCBサイズの負担を改善することに成功した。
AGORAの設計は、信頼できない当事者がこれらの複雑なプロセスに参加することを可能にする。
さらに、信頼された実行環境で最適化されたTCBを実行し、ブロックチェーン上で検証プロセスを記録することにより、検証結果の正しさを監査することができる。
ソフトウェアベースの障害分離ポリシーとサイドチャネル緩和のための検証ワークフローを実装することにより、AGORAの有効性を実証する。
関連論文リスト
- Information Bargaining: Bilateral Commitment in Bayesian Persuasion [60.3761154043329]
長期的説得のための統一的なフレームワークとよく構造化されたソリューションの概念を導入する。
この視点はゲーム構造の共通知識を明確にし、レシーバに匹敵するコミットメント能力を与える。
このフレームワークは、2段階の検証と推論のパラダイムによって検証される。
論文 参考訳(メタデータ) (2025-06-06T08:42:34Z) - Attention Knows Whom to Trust: Attention-based Trust Management for LLM Multi-Agent Systems [52.57826440085856]
LLM-MAS(Large Language Model-based Multi-Agent Systems)は、複雑なタスクを解く上で強力な能力を示すが、エージェントが信頼性の低いメッセージを受け取ると弱いままである。
LLMエージェントは、信頼性を評価することなく、すべての受信メッセージを平等に扱う。
本稿では,メッセージの信頼度を評価するための軽量な注意ベース手法であるAttention Trust Score (A-Trust)を提案する。
論文 参考訳(メタデータ) (2025-06-03T07:32:57Z) - Training Language Models to Generate Quality Code with Program Analysis Feedback [66.0854002147103]
大規模言語モデル(LLM)によるコード生成は、ますます本番環境で採用されているが、コード品質の保証には失敗している。
実運用品質のコードを生成するためにLLMにインセンティブを与える強化学習フレームワークであるREALを提案する。
論文 参考訳(メタデータ) (2025-05-28T17:57:47Z) - Automating Security Audit Using Large Language Model based Agent: An Exploration Experiment [7.039114328812774]
セキュリティ監査は、ポリシーが成立し、コントロールが実施され、サイバーセキュリティのリスク軽減のためにギャップが特定されることを保証することで、強力なセキュリティ姿勢を維持するのに役立つ。
本稿では,大規模言語モデル(LLM)を自律エージェントとして活用し,セキュリティ監査の一部を実行するフレームワークの開発の可能性を検討する。
論文 参考訳(メタデータ) (2025-05-15T22:22:52Z) - ConCISE: Confidence-guided Compression in Step-by-step Efficient Reasoning [75.1101108949743]
大規模推論モデル(LRM)は、Chain-of-Thought (CoT)プロンプトを介して複雑な推論タスクを強く行う。
LRMは冗長なコンテンツによる冗長なアウトプット、計算オーバーヘッドの増加、ユーザエクスペリエンスの低下に悩まされることが多い。
本稿では,推論中のモデルの信頼性を高めることによって推論チェーンを簡素化するフレームワークであるConCISEを提案する。
論文 参考訳(メタデータ) (2025-05-08T01:40:40Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [60.881609323604685]
ブラックボックスAPIを通じてアクセスされるLarge Language Models (LLM)は、信頼の課題をもたらす。
ユーザーは、宣伝されたモデル機能に基づいたサービスの料金を支払う。
プロバイダは、運用コストを削減するために、特定のモデルを安価で低品質の代替品に隠蔽的に置き換えることができる。
この透明性の欠如は、公正性を損なうとともに、信頼を損なうとともに、信頼性の高いベンチマークを複雑にする。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - AgentOrca: A Dual-System Framework to Evaluate Language Agents on Operational Routine and Constraint Adherence [54.317522790545304]
本稿では,言語エージェントの動作制約やルーチンに対するコンプライアンスを評価するための,デュアルシステムフレームワークであるAgentOrcaを提案する。
本フレームワークは,エージェントの自然言語プロンプトと,それに対応する実行可能コードが,自動検証のための基礎的真理として機能することを通じて,行動制約とルーチンを符号化する。
以上の結果から,o1のような大きな推論モデルではコンプライアンスが良好であり,他のモデルではパフォーマンスが著しく低下していることが明らかとなった。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Ownership Verification with Reasoning [58.57194301645823]
大規模言語モデル (LLM) は、検索強化生成機構 (RAG) を通じて現実のアプリケーションに統合されつつある。
これらの知識基盤を保護するための透かし技術として一般化できる既存の方法は、通常、中毒攻撃を伴う。
我々は、無害な」知識基盤の著作権保護の名称を提案する。
論文 参考訳(メタデータ) (2025-02-10T09:15:56Z) - Aligning Large Language Models for Faithful Integrity Against Opposing Argument [71.33552795870544]
大規模言語モデル(LLM)は複雑な推論タスクにおいて印象的な機能を示している。
原文が正しい場合でも、会話中に不誠実な議論によって容易に誤解される。
本稿では,信頼度と信頼度を両立させる新しい枠組みを提案する。
論文 参考訳(メタデータ) (2025-01-02T16:38:21Z) - Formal Verification of Permission Voucher [1.4732811715354452]
Permission Voucher Protocolは、分散環境におけるセキュアで認証されたアクセス制御のために設計されたシステムである。
この分析では、重要なセキュリティ特性を評価するために、象徴的検証のための最先端のツールであるTamarin Proverを使用している。
結果は、メッセージの改ざん、偽装、リプレイなどの一般的な攻撃に対するプロトコルの堅牢性を確認する。
論文 参考訳(メタデータ) (2024-12-18T14:11:50Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - TRACES: TEE-based Runtime Auditing for Commodity Embedded Systems [9.32090482996659]
制御フロー監査(CFA)は、遠隔デバイスに対する制御フローハイジャック攻撃を検出する手段を提供する。
CFAは実行されたすべての分岐命令の宛先を含むトレース(CFLog)を生成する。
TraCESはPrvが侵害された場合でも、定期的なランタイムレポートの信頼性を保証する。
論文 参考訳(メタデータ) (2024-09-27T20:10:43Z) - Lifecycle Management of Resumés with Decentralized Identifiers and Verifiable Credentials [0.0]
本稿では,デジタルリサム認証を管理するための信頼枠組を紹介する。
我々は,仲介者なしで検証可能なクレデンシャルをリアルタイムに発行し,保存し,検証するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-17T13:37:44Z) - It Takes Two: A Peer-Prediction Solution for Blockchain Verifier's Dilemma [12.663727952216476]
不正行為の少ない、あるいはまったくないセキュアなブロックチェーンシステムでは、検証担当者がコストのかかる検証を正直に実行する十分なインセンティブが得られなかった。
ブロックチェーンおよび潜在的に分散化されたシステムのセキュリティと堅牢性を向上する検証メカニズムのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-03T21:21:17Z) - The Decisive Power of Indecision: Low-Variance Risk-Limiting Audits and Election Contestation via Marginal Mark Recording [51.82772358241505]
リスクリミット監査(リスクリミット監査、RLA)は、大規模な選挙の結果を検証する技術である。
我々は、効率を改善し、統計力の進歩を提供する監査の新たなファミリーを定めている。
新しい監査は、複数の可能なマーク解釈を宣言できるように、キャストボイトレコードの標準概念を再考することで実現される。
論文 参考訳(メタデータ) (2024-02-09T16:23:54Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - TrustFed: A Reliable Federated Learning Framework with Malicious-Attack
Resistance [8.924352407824566]
フェデレートラーニング(FL)は、個々のデータのプライバシを確保しながら、複数のクライアント間で協調的な学習を可能にする。
本稿では,階層型監査に基づくFL(HiAudit-FL)フレームワークを提案する。
シミュレーションの結果、HiAudit-FLは、システムオーバーヘッドを小さくして、潜在的悪意のあるユーザを効果的に識別し、対処できることが示されている。
論文 参考訳(メタデータ) (2023-12-06T13:56:45Z) - Runtime Verification for Trustworthy Computing [0.0]
実行時検証がRich Execution Environment(REE)に対する信頼度を高める方法を示す。
RV-TEE監視プロセスにおける2つの脅威モデルに対する実用的な解決策を提案する。
論文 参考訳(メタデータ) (2023-10-03T18:23:16Z) - FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature [60.99054146321459]
フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
本稿では,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T12:10:02Z) - Sound and Complete Verification of Polynomial Networks [55.9260539566555]
PN(Polynomial Networks)は、最近顔と画像の認識において有望な性能を示した。
分岐とバウンド(BaB)技術に基づくReLUニューラルネットワーク(NN)上の既存の検証アルゴリズムは、PN検証に自明に適用できない。
我々は、VPNと呼ばれるグローバルコンバージェンス保証のためのBaBを備えた新しいバウンダリング手法を考案した。
論文 参考訳(メタデータ) (2022-09-15T11:50:43Z) - Byzantine-Robust Online and Offline Distributed Reinforcement Learning [60.970950468309056]
本稿では,複数のエージェントが環境を探索し,その経験を中央サーバを通じて伝達する分散強化学習環境について考察する。
エージェントの$alpha$-fractionは敵対的であり、任意の偽情報を報告することができる。
我々は、これらの対立エージェントの存在下で、マルコフ決定プロセスの根底にある準最適政策を特定することを模索する。
論文 参考訳(メタデータ) (2022-06-01T00:44:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。