論文の概要: Verde: Verification via Refereed Delegation for Machine Learning Programs
- arxiv url: http://arxiv.org/abs/2502.19405v1
- Date: Wed, 26 Feb 2025 18:53:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:56:51.792665
- Title: Verde: Verification via Refereed Delegation for Machine Learning Programs
- Title(参考訳): Verde: マシンラーニングプログラムのリフレッシュデリゲートによる検証
- Authors: Arasu Arun, Adam St. Arnaud, Alexey Titov, Brian Wilcox, Viktor Kolobaric, Marc Brinkmann, Oguzhan Ersoy, Ben Fielding, Joseph Bonneau,
- Abstract要約: 本稿では,参照デリゲートの暗号概念を機械学習環境に適用することを提案する。
このアプローチにより、計算に制限のあるクライアントは、プログラムを複数の信頼できない計算プロバイダに委譲することができる。
我々は,参照デリゲートがクライアントの強い保証と計算プロバイダの実践的オーバーヘッドの両方を達成することを示す。
- 参考スコア(独自算出の注目度): 4.517825749418438
- License:
- Abstract: Machine learning programs, such as those performing inference, fine-tuning, and training of LLMs, are commonly delegated to untrusted compute providers. To provide correctness guarantees for the client, we propose adapting the cryptographic notion of refereed delegation to the machine learning setting. This approach enables a computationally limited client to delegate a program to multiple untrusted compute providers, with a guarantee of obtaining the correct result if at least one of them is honest. Refereed delegation of ML programs poses two technical hurdles: (1) an arbitration protocol to resolve disputes when compute providers disagree on the output, and (2) the ability to bitwise reproduce ML programs across different hardware setups, For (1), we design Verde, a dispute arbitration protocol that efficiently handles the large scale and graph-based computational model of modern ML programs. For (2), we build RepOps (Reproducible Operators), a library that eliminates hardware "non-determinism" by controlling the order of floating point operations performed on all hardware. Our implementation shows that refereed delegation achieves both strong guarantees for clients and practical overheads for compute providers.
- Abstract(参考訳): 推論、微調整、LLMの訓練などの機械学習プログラムは、一般に信頼できない計算プロバイダに委譲される。
クライアントに対して正当性を保証するため,参照デリゲートの暗号的概念を機械学習環境に適用することを提案する。
このアプローチにより、複数の信頼できない計算プロバイダにプログラムを委譲することができ、少なくとも一方が正直であれば正しい結果が得られる。
1)計算プロバイダが出力に異を唱えたときの紛争解決のための調停プロトコル,(2)異なるハードウェア構成でMLプログラムをビット単位に再現する機能,(1)現代MLプログラムの大規模およびグラフベースの計算モデルを効率的に処理する紛争調停プロトコルであるVerdeを設計する。
このライブラリは、すべてのハードウェア上で実行される浮動小数点演算の順序を制御することによって、ハードウェアの"非決定性"を排除します。
本実装では,参照デリゲートがクライアントの強い保証と計算プロバイダの実践的オーバーヘッドの両方を達成することを示す。
関連論文リスト
- SVIP: Towards Verifiable Inference of Open-source Large Language Models [33.910670775972335]
オープンソースのLarge Language Models (LLMs)は、最近、自然言語の理解と生成において顕著な能力を示し、様々な領域で広く採用されている。
モデルのサイズが大きくなることで、個々のユーザにとってローカルデプロイメントは現実的ではなく、ブラックボックスAPIを通じて推論を行うコンピューティングサービスプロバイダに頼らざるを得なくなる。
この依存は新たなリスクをもたらす: コンピューティングプロバイダは、要求されたLLMをユーザからの同意なく、より小さく、能力の低いモデルにステルス的に置き換えて、コスト削減の恩恵を受けながら、劣ったアウトプットを配信する。
論文 参考訳(メタデータ) (2024-10-29T17:52:45Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - Tender: Accelerating Large Language Models via Tensor Decomposition and Runtime Requantization [0.6445087473595953]
大規模言語モデル(LLM)は、機械学習における様々なタスクにおいて優れたパフォーマンスを示す。
LLM推論のデプロイは、高い計算とメモリ要求のために問題となる。
我々は,低精度でLLM推論を効率的に展開できるアルゴリズム-ハードウェア共設計ソリューションであるテンダーを提案する。
論文 参考訳(メタデータ) (2024-06-16T09:51:55Z) - Flexible Job Shop Scheduling via Dual Attention Network Based
Reinforcement Learning [73.19312285906891]
フレキシブルなジョブショップスケジューリング問題(FJSP)では、複数のマシンで操作を処理でき、操作とマシンの間の複雑な関係が生じる。
近年, 深層強化学習(DRL)を用いて, FJSP解決のための優先派遣規則(PDR)を学習している。
本稿では,Deep機能抽出のための自己注意モデルと,スケーラブルな意思決定のためのDRLの利点を生かした,エンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T01:35:48Z) - Formalization of Quantum Intermediate Representations for Code Safety [3.5116128875896067]
量子中間表現(Quantum Intermediate Representation、QIR)は、Microsoftが開発したLLVMベースの量子プログラムコンパイラの中間表現である。
我々は、QIRのデータ型と命令セットを形式的に定義し、正確性とセキュリティ保証を提供することを目的としている。
論文 参考訳(メタデータ) (2023-03-25T15:40:18Z) - QParallel: Explicit Parallelism for Programming Quantum Computers [62.10004571940546]
並列量子プログラミングのための言語拡張を提案する。
QParallelは、現在の量子プログラミング言語における並列性に関する曖昧さを取り除く。
並列化によって最も利益を上げるサブルーチンを識別し,並列領域の配置にプログラマを誘導するツールを提案する。
論文 参考訳(メタデータ) (2022-10-07T16:35:16Z) - Should All Proposals be Treated Equally in Object Detection? [110.27485090952385]
オブジェクト検出器の複雑さと精度のトレードオフは、リソース制約されたビジョンタスクにとって重要な問題である。
検出効率の改善には、提案の不平等な処理に向けて、パラダイムシフトが必要であると仮定されている。
これにより、利用可能な計算予算がより有効になり、同じFLOPSの精度が向上する。
論文 参考訳(メタデータ) (2022-07-07T18:26:32Z) - Task-Oriented Sensing, Computation, and Communication Integration for
Multi-Device Edge AI [108.08079323459822]
本稿では,AIモデルの分割推論と統合センシング通信(ISAC)を併用した,新しいマルチインテリジェントエッジ人工レイテンシ(AI)システムについて検討する。
推定精度は近似的だが抽出可能な計量、すなわち判別利得を用いて測定する。
論文 参考訳(メタデータ) (2022-07-03T06:57:07Z) - Unifying Quantum Verification and Error-Detection: Theory and Tools for Optimisations [0.5825410941577593]
クラウドベースの量子コンピューティングは、クライアントによって量子サービスプロバイダに委譲された計算が忠実に実行されるという強力な保証を提供するために不可欠である。
現在のプロトコルには、コンポーザビリティ、ノイズ・ロバスト性、モジュール性という3つの要素の少なくとも1つが欠落している。
本稿では,SDQCプロトコルの基本構造,すなわちクライアントがサーバの実行を希望する暗号化と,サーバの悪意のある動作を検出するように設計されたテストの2つのコンポーネントを混合する。
テストの種類を変えたり、クライアントの計算と混同したりすると、セキュリティとノイズの異なる新しいSDQCプロトコルが自動的に生成される。
論文 参考訳(メタデータ) (2022-06-01T17:03:07Z) - Straggler-aware Distributed Learning: Communication Computation Latency
Trade-off [56.08535873173518]
ストラグワーカーは冗長な計算を割り当て、データと計算をまたいでコーディングすることで許容できる。
既存のほとんどのスキームでは、各非ストラグリングワーカーは、全ての計算を完了した後、1イテレーションごとに1つのメッセージをパラメータサーバ(PS)に送信する。
このような制限を課すことで、ストレグリング動作の不正確な予測による過剰計算と、ストレグラー/非ストレグラーとしての作業員の処理による未使用の2つの主な欠点が生じる。
論文 参考訳(メタデータ) (2020-04-10T08:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。