論文の概要: Enhanced Outsourced and Secure Inference for Tall Sparse Decision Trees
- arxiv url: http://arxiv.org/abs/2505.02224v1
- Date: Sun, 04 May 2025 19:15:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.493511
- Title: Enhanced Outsourced and Secure Inference for Tall Sparse Decision Trees
- Title(参考訳): 背の高いスパース決定木に対するアウトソースとセキュア推論の強化
- Authors: Andrew Quijano, Spyros T. Halkidis, Kevin Gallagher, Kemal Akkaya, Nikolaos Samaras,
- Abstract要約: 決定木は容易に理解できるツールであり、分類タスクに広く使われてきた。
データ所有者は、モデルをアウトソーシングすることでリスクを減らそうとしているが、サードパーティが決定ツリーモデルを盗むことができないことをセキュリティに保証したい。
本稿では,複数のエンティティ間でモデルを共有し,評価する新しい決定木推論プロトコルを提案する。
- 参考スコア(独自算出の注目度): 3.24708405883535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A decision tree is an easy-to-understand tool that has been widely used for classification tasks. On the one hand, due to privacy concerns, there has been an urgent need to create privacy-preserving classifiers that conceal the user's input from the classifier. On the other hand, with the rise of cloud computing, data owners are keen to reduce risk by outsourcing their model, but want security guarantees that third parties cannot steal their decision tree model. To address these issues, Joye and Salehi introduced a theoretical protocol that efficiently evaluates decision trees while maintaining privacy by leveraging their comparison protocol that is resistant to timing attacks. However, their approach was not only inefficient but also prone to side-channel attacks. Therefore, in this paper, we propose a new decision tree inference protocol in which the model is shared and evaluated among multiple entities. We partition our decision tree model by each level to be stored in a new entity we refer to as a "level-site." Utilizing this approach, we were able to gain improved average run time for classifier evaluation for a non-complete tree, while also having strong mitigations against side-channel attacks.
- Abstract(参考訳): 決定木は容易に理解できるツールであり、分類タスクに広く使われてきた。
一方、プライバシー上の懸念から、利用者の入力を識別者から隠蔽するプライバシー保護型分類器を作成する必要がある。
一方、クラウドコンピューティングの台頭に伴い、データ所有者は、モデルをアウトソーシングすることでリスクを減らそうとしている。
これらの問題に対処するため、Joye氏とSalehi氏は、タイミング攻撃に耐性のある比較プロトコルを活用することで、プライバシを維持しながら意思決定ツリーを効率的に評価する理論的プロトコルを導入した。
しかし、そのアプローチは非効率であるばかりでなく、サイドチャネル攻撃の傾向があった。
そこで本研究では,複数のエンティティ間でモデルを共有し,評価する新しい決定木推論プロトコルを提案する。
決定ツリーモデルを各レベルに分割して、"レベルサイト"と呼ぶ新しいエンティティに格納します。
このアプローチを用いることで,非完全木に対する分類器評価における平均実行時間を向上できると同時に,サイドチャネル攻撃に対する強い軽減が可能となった。
関連論文リスト
- Learning Deep Tree-based Retriever for Efficient Recommendation: Theory and Method [76.31185707649227]
効率的なレコメンデーションのために,Deep Tree-based Retriever (DTR)を提案する。
DTRは、トレーニングタスクを、同じレベルでツリーノード上のソフトマックスベースのマルチクラス分類としてフレーム化している。
非リーフノードのラベル付けによって引き起こされる準最適性を緩和するため、損失関数の補正法を提案する。
論文 参考訳(メタデータ) (2024-08-21T05:09:53Z) - Reinforcement Learning for Node Selection in Branch-and-Bound [52.2648997215667]
現在の最先端セレクタは手作りのアンサンブルを使用して、ナイーブなサブノードセレクタと、個々のノードデータに依存する学習ノードセレクタを自動的に切り替える。
孤立ノードではなく木の状態全体を考慮しながら強化学習(RL)を用いる新しいシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2023-09-29T19:55:56Z) - Differentially-Private Decision Trees and Provable Robustness to Data
Poisoning [8.649768969060647]
決定木は非線形学習問題に適した解釈可能なモデルである。
この目的のための現在の最先端のアルゴリズムは、小さなプライバシー上の利益のために多くのユーティリティを犠牲にしている。
プライバトレーは個人のヒストグラムに基づいて、小さなプライバシー予算を消費しながら、良好な分割を選択する。
論文 参考訳(メタデータ) (2023-05-24T17:56:18Z) - Tree-Values: selective inference for regression trees [0.0]
データから推定された木が標準的な保証を達成できないという事実を説明できない推論に対する単純なアプローチ。
適応したCARTツリー上での推論を行うための選択推論フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T00:25:11Z) - Fed-EINI: An Efficient and Interpretable Inference Framework for
Decision Tree Ensembles in Federated Learning [11.843365055516566]
Fed-EINIは、フェデレーションツリーモデルのための効率的かつ解釈可能な推論フレームワークである。
本稿では,効率的な加算同型暗号法により決定経路を保護することを提案する。
実験によると、推論効率は平均で50%以上改善されている。
論文 参考訳(メタデータ) (2021-05-20T06:40:05Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - Privacy Preserving Vertical Federated Learning for Tree-based Models [30.808567035503994]
フェデレーション学習は、複数の組織が互いにプライベートデータを公開することなく、共同でモデルをトレーニングすることを可能にする。
本稿では,垂直決定木学習と予測のためのプライバシー保護のための新しいソリューションであるPivotを提案する。
論文 参考訳(メタデータ) (2020-08-14T02:32:36Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - A general framework for defining and optimizing robustness [74.67016173858497]
分類器の様々な種類の堅牢性を定義するための厳密でフレキシブルなフレームワークを提案する。
我々の概念は、分類器の堅牢性は正確性とは無関係な性質と考えるべきであるという仮定に基づいている。
我々は,任意の分類モデルに適用可能な,非常に一般的なロバスト性フレームワークを開発する。
論文 参考訳(メタデータ) (2020-06-19T13:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。