論文の概要: Kangaroo: A Private and Amortized Inference Framework over WAN for Large-Scale Decision Tree Evaluation
- arxiv url: http://arxiv.org/abs/2509.03123v1
- Date: Wed, 03 Sep 2025 08:22:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.46157
- Title: Kangaroo: A Private and Amortized Inference Framework over WAN for Large-Scale Decision Tree Evaluation
- Title(参考訳): Kangaroo: 大規模決定木評価のためのWAN上のプライベートかつアモータイズされた推論フレームワーク
- Authors: Wei Xu, Hui Zhu, Yandong Zheng, Song Bian, Ning Sun, Hao Yuan, Dengguo Feng, Hui Li,
- Abstract要約: Kangarooは、同型暗号化を組み込んだ、プライベートかつ償却された決定ツリー推論フレームワークである。
WAN環境でのSOTA(State-of-the-art (State-the-art))ワンラウンドのインタラクティブスキームよりも、14倍から59倍のパフォーマンス向上を実現している。
- 参考スコア(独自算出の注目度): 20.51424288727968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid adoption of Models-as-a-Service, concerns about data and model privacy have become increasingly critical. To solve these problems, various privacy-preserving inference schemes have been proposed. In particular, due to the efficiency and interpretability of decision trees, private decision tree evaluation (PDTE) has garnered significant attention. However, existing PDTE schemes suffer from significant limitations: their communication and computation costs scale with the number of trees, the number of nodes, or the tree depth, which makes them inefficient for large-scale models, especially over WAN networks. To address these issues, we propose Kangaroo, a private and amortized decision tree inference framework build upon packed homomorphic encryption. Specifically, we design a novel model hiding and encoding scheme, together with secure feature selection, oblivious comparison, and secure path evaluation protocols, enabling full amortization of the overhead as the number of nodes or trees scales. Furthermore, we enhance the performance and functionality of the framework through optimizations, including same-sharing-for-same-model, latency-aware, and adaptive encoding adjustment strategies. Kangaroo achieves a $14\times$ to $59\times$ performance improvement over state-of-the-art (SOTA) one-round interactive schemes in WAN environments. For large-scale decision tree inference tasks, it delivers a $3\times$ to $44\times$ speedup compared to existing schemes. Notably, Kangaroo enables the evaluation of a random forest with $969$ trees and $411825$ nodes in approximately $60$ ms per tree (amortized) under WAN environments.
- Abstract(参考訳): モデル・アズ・ア・サービス(Models-as-a-Service)の急速な採用に伴い、データとモデルのプライバシに関する懸念がますます重要になっている。
これらの問題を解決するために、様々なプライバシー保護推論スキームが提案されている。
特に,決定木の効率性と解釈性から,個人決定木評価(PDTE)が注目されている。
しかし、既存のPDTEスキームは、通信と計算のコストは、木の数、ノード数、木の深さと共にスケールするので、大規模モデル、特にWANネットワークでは非効率である。
これらの問題に対処するために,同型暗号化を組み込んだ,プライベートかつ償却された決定木推論フレームワークであるKangarooを提案する。
具体的には,ノード数や木数がスケールするにつれて,オーバヘッドの完全アモート化を可能にする,セキュアな特徴選択,不明瞭な比較,セキュアなパス評価プロトコルとともに,新しいモデル隠れ符号化方式を設計する。
さらに、同一共有モデル、遅延認識、適応符号化調整戦略などの最適化により、フレームワークの性能と機能を向上させる。
Kangarooは、WAN環境での1ラウンドのインタラクティブなスキームに対して、14ドルから59ドルまでのパフォーマンス改善を達成している。
大規模な決定木推論タスクでは、既存のスキームに比べて3ドルから4ドルにスピードアップする。
特に、カンガルーは、WAN環境下で、969ドルの木と411825ドルのノードを持つランダムな森林を、約60ドルで評価することができる。
関連論文リスト
- TreePO: Bridging the Gap of Policy Optimization and Efficacy and Inference Efficiency with Heuristic Tree-based Modeling [65.46347858249295]
TreePOは自己誘導型ロールアウトアルゴリズムで、シーケンス生成を木構造検索プロセスとして見る。
TreePOは基本的に、探索の多様性を保存または強化しながら、更新毎の計算負担を削減します。
論文 参考訳(メタデータ) (2025-08-24T16:52:37Z) - Multi-Armed Bandits-Based Optimization of Decision Trees [0.0]
本稿では,マルチアーマッドバンド (MAB) に基づくプルーニング手法,強化学習 (RL) に基づく手法を提案する。
そこで我々はMABアルゴリズムを用いて各プルーニング動作からのフィードバックに基づいて最適な分岐ノードを見つける。
論文 参考訳(メタデータ) (2025-08-08T02:43:45Z) - Enhanced Outsourced and Secure Inference for Tall Sparse Decision Trees [3.24708405883535]
決定木は容易に理解できるツールであり、分類タスクに広く使われてきた。
データ所有者は、モデルをアウトソーシングすることでリスクを減らそうとしているが、サードパーティが決定ツリーモデルを盗むことができないことをセキュリティに保証したい。
本稿では,複数のエンティティ間でモデルを共有し,評価する新しい決定木推論プロトコルを提案する。
論文 参考訳(メタデータ) (2025-05-04T19:15:27Z) - TreeBoN: Enhancing Inference-Time Alignment with Speculative Tree-Search and Best-of-N Sampling [62.80050721268028]
推論時アライメントは、追加のトレーニングや微調整を必要とせずに、大きな言語モデルの性能を向上させる。
Best-of-N (BoN) サンプリングは、単純だが強力なアプローチであり、複数のレスポンスを生成し、最良のものを選択する。
我々は、投機的木探索戦略をBest-of-N(BoN)サンプリングに統合する新しいフレームワークであるTreeBoNを提案する。
論文 参考訳(メタデータ) (2024-10-18T04:38:21Z) - ForestPrune: Compact Depth-Controlled Tree Ensembles [7.538482310185135]
我々は,個々の木から深度層を刈り取ることで,木アンサンブルを後処理する新しいフレームワークであるフォレストプルーを紹介する。
本研究では,フォレストプルーネにおける問題に対する高品質な解を効率的に得るための最適化アルゴリズムを開発した。
実験により、フォレストプルーンは既存の後処理アルゴリズムによって抽出されたモデルより優れたパシモニアスモデルを生成することを示した。
論文 参考訳(メタデータ) (2022-05-31T22:04:18Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - Uncovering Feature Interdependencies in High-Noise Environments with
Stepwise Lookahead Decision Forests [0.0]
ランダムフォレストアルゴリズムの「Stepwise lookahead」変異は、二項特徴相互依存性をよりよく発見する能力を示す。
銅先物取引の長期的戦略は、毎日の物価リターンの兆候を予測するために、欲望と無作為な森林の両方を訓練することで実証される。
論文 参考訳(メタデータ) (2020-09-30T11:31:10Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z) - ENTMOOT: A Framework for Optimization over Ensemble Tree Models [57.98561336670884]
ENTMOOTは、ツリーモデルをより大きな最適化問題に統合するためのフレームワークである。
ENTMOOTは、ツリーモデルの意思決定とブラックボックス最適化への単純な統合を可能にしていることを示す。
論文 参考訳(メタデータ) (2020-03-10T14:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。