論文の概要: ZKBoost: Zero-Knowledge Verifiable Training for XGBoost
- arxiv url: http://arxiv.org/abs/2602.04113v1
- Date: Wed, 04 Feb 2026 00:56:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.328895
- Title: ZKBoost: Zero-Knowledge Verifiable Training for XGBoost
- Title(参考訳): ZKBoost:XGBoostのゼロ知識検証トレーニング
- Authors: Nikolas Melissaris, Jiayi Xu, Antigoni Polychroniadou, Akira Takahashi, Chenkai Weng,
- Abstract要約: ZKBoostは,XGBoostのZKPoTプロトコルの最初のゼロ知識証明である。
我々の固定点実装は、標準のXGBoost精度を1%以内で一致させ、実際のデータセット上で実用的なzkPoTを実現する。
- 参考スコア(独自算出の注目度): 11.66112429566394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gradient boosted decision trees, particularly XGBoost, are among the most effective methods for tabular data. As deployment in sensitive settings increases, cryptographic guarantees of model integrity become essential. We present ZKBoost, the first zero-knowledge proof of training (zkPoT) protocol for XGBoost, enabling model owners to prove correct training on a committed dataset without revealing data or parameters. We make three key contributions: (1) a fixed-point XGBoost implementation compatible with arithmetic circuits, enabling instantiation of efficient zkPoT, (2) a generic template of zkPoT for XGBoost, which can be instantiated with any general-purpose ZKP backend, and (3) vector oblivious linear evaluation (VOLE)-based instantiation resolving challenges in proving nonlinear fixed-point operations. Our fixed-point implementation matches standard XGBoost accuracy within 1\% while enabling practical zkPoT on real-world datasets.
- Abstract(参考訳): グラフ化された決定木、特にXGBoostは、表データの最も効果的な方法の一つである。
センシティブな設定でのデプロイメントが増加するにつれて、モデル完全性の暗号的保証が不可欠になる。
我々は、XGBoostのための最初のゼロ知識トレーニング(zkPoT)プロトコルであるZKBoostを紹介し、モデル所有者がデータやパラメータを明らかにすることなく、コミットデータセット上で正しいトレーニングを証明できるようにする。
我々は,(1) 演算回路と互換性のある固定点XGBoost実装,(2) 効率的なzkPoTのインスタンス化,(2) 汎用ZKPバックエンドでインスタンス化可能なXGBoost用zkPoTの汎用テンプレート,(3) ベクトルオブリベラル線形評価(VOLE)による非線形固定点演算の課題の解決,の3つの主要な貢献を行う。
我々の固定点実装は1\%以内の標準XGBoost精度と一致し、実際のデータセット上で実用的なzkPoTを実現する。
関連論文リスト
- Keep It on a Leash: Controllable Pseudo-label Generation Towards Realistic Long-Tailed Semi-Supervised Learning [88.48555005545694]
ラベル付きデータセットから信頼できる擬似ラベルでラベル付きデータセットを拡張するための制御可能な擬似ラベル生成(CPG)フレームワークを提案する。
CPGは制御可能な自己強化最適化サイクルを介して動作する。
CPGは、最先端のメソッドを最大$textbf15.97%の精度で上回り、一貫した改善を実現している。
論文 参考訳(メタデータ) (2025-10-05T01:52:19Z) - OGBoost: A Python Package for Ordinal Gradient Boosting [0.0]
OGBoostはScikit-learn互換のPythonパッケージで、勾配ブースティングを用いた順序回帰を行う。
パッケージはPyPIで利用可能で、"pip install ogboost"経由でインストールできる。
論文 参考訳(メタデータ) (2025-02-19T06:06:12Z) - Degree-Conscious Spiking Graph for Cross-Domain Adaptation [51.58506501415558]
Spiking Graph Networks (SGNs) はグラフ分類において大きな可能性を証明している。
DeSGraDA(Degree-Consicious Spiking Graph for Cross-Domain Adaptation)という新しいフレームワークを紹介する。
DeSGraDAは3つのキーコンポーネントを持つドメイン間の一般化を強化する。
論文 参考訳(メタデータ) (2024-10-09T13:45:54Z) - Explainable AI Integrated Feature Selection for Landslide Susceptibility
Mapping using TreeSHAP [0.0]
データ駆動型アプローチによる地すべり感受性の早期予測は時間の要求である。
地すべりの感受性予測には,XgBoost,LR,KNN,SVM,Adaboostといった最先端の機械学習アルゴリズムを用いた。
XgBoostの最適化バージョンと機能低下の40パーセントは、一般的な評価基準で他のすべての分類器よりも優れています。
論文 参考訳(メタデータ) (2022-01-10T09:17:21Z) - KGBoost: A Classification-based Knowledge Base Completion Method with
Negative Sampling [29.14178162494542]
KGBoostは、リンク予測の欠如のために強力な分類器を訓練する新しい方法である。
我々は、複数のベンチマークデータセットで実験を行い、KGBoostがほとんどのデータセットで最先端のメソッドより優れていることを示す。
エンドツーエンドの最適化によって訓練されたモデルと比較して、KGBoostは、より小さなモデルサイズを実現するために、低次元設定下でうまく機能する。
論文 参考訳(メタデータ) (2021-12-17T06:19:37Z) - Tabular Data: Deep Learning is Not All You Need [0.0]
AutoMLシステムの主要な要素は、タスクの種類ごとに使用されるモデルのタイプを設定することである。
表データの分類や回帰問題では、通常、ツリーアンサンブルモデル(XGBoostなど)の使用が推奨される。
論文 参考訳(メタデータ) (2021-06-06T21:22:39Z) - Survival regression with accelerated failure time model in XGBoost [1.5469452301122177]
サバイバル回帰は、時間から時間までの変数と特徴変数の関係を推定するために用いられる。
XGBoostは、高速化された障害時間モデルを学習するための損失関数を実装している。
論文 参考訳(メタデータ) (2020-06-08T20:34:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。