論文の概要: Verifiable Split Learning via zk-SNARKs
- arxiv url: http://arxiv.org/abs/2511.01356v1
- Date: Mon, 03 Nov 2025 09:05:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.187573
- Title: Verifiable Split Learning via zk-SNARKs
- Title(参考訳): zk-SNARKによる検証可能な分割学習
- Authors: Rana Alaa, Darío González-Ferreiro, Carlos Beis-Penedo, Manuel Fernández-Veiga, Rebeca P. Díaz-Redondo, Ana Fernández-Vilas,
- Abstract要約: 分割学習(Split Learning)とは、ディープニューラルネットワークをクライアント側とサーバ側という2つの部分に分割する、協調学習のアプローチである。
本稿では,zk-SNARK証明を組み込んだ検証可能な分割学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.226920120094475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split learning is an approach to collaborative learning in which a deep neural network is divided into two parts: client-side and server-side at a cut layer. The client side executes its model using its raw input data and sends the intermediate activation to the server side. This configuration architecture is very useful for enabling collaborative training when data or resources are separated between devices. However, split learning lacks the ability to verify the correctness and honesty of the computations that are performed and exchanged between the parties. To this purpose, this paper proposes a verifiable split learning framework that integrates a zk-SNARK proof to ensure correctness and verifiability. The zk-SNARK proof and verification are generated for both sides in forward propagation and backward propagation on the server side, guaranteeing verifiability on both sides. The verifiable split learning architecture is compared to a blockchain-enabled system for the same deep learning network, one that records updates but without generating the zero-knowledge proof. From the comparison, it can be deduced that applying the zk-SNARK test achieves verifiability and correctness, while blockchains are lightweight but unverifiable.
- Abstract(参考訳): スプリットラーニング(Split Learning)とは、ディープニューラルネットワークをクライアント側とサーバ側という2つの部分に分割された、コラボレーティブラーニング(コラボレーティブラーニング)のアプローチである。
クライアント側は生の入力データを使用してモデルを実行し、中間のアクティベーションをサーバ側に送信する。
この構成アーキテクチャは、データやリソースがデバイス間で分離されたときに協調的なトレーニングを可能にするのに非常に役立ちます。
しかし、分割学習は、当事者間で行われ、交換される計算の正確さと誠実さを検証する能力に欠ける。
そこで本稿では,zk-SNARK証明を組み込んだ検証可能な分割学習フレームワークを提案する。
zk-SNARK証明と検証は、サーバ側の前方伝播と後方伝播の両面に対して生成され、両面の妥当性が保証される。
検証可能な分割学習アーキテクチャは、ゼロ知識証明を生成することなく更新を記録する、同一のディープラーニングネットワーク用のブロックチェーン対応システムと比較される。
比較から、zk-SNARKテストを適用することで、ブロックチェーンは軽量だが検証不能であるのに対して、妥当性と正確性が得られると推定できる。
関連論文リスト
- SafeSplit: A Novel Defense Against Client-Side Backdoor Attacks in Split Learning (Full Version) [53.16528046390881]
Split Learning(SL)は、複数のクライアントとサーバが共同で学習し、共有ディープラーニング(DNN)上で推論できる分散ディープラーニングアプローチである。
本稿では,split Learning(SL)におけるクライアント側のバックドア攻撃に対する最初の防御であるSafeSplitについて述べる。
クライアントが引き起こした変更を特定し、有毒なモデルを検出するために、2倍の分析を使用する。
論文 参考訳(メタデータ) (2025-01-11T22:20:20Z) - SplitFedZip: Learned Compression for Data Transfer Reduction in Split-Federated Learning [5.437298646956505]
SplitFederated(SplitFed)学習は、さまざまなドメインにわたる理想的な学習フレームワークです。
SplitFedZipは、SplitFed学習におけるデータ転送を減らすために学習圧縮を利用する新しい方法である。
論文 参考訳(メタデータ) (2024-12-18T19:04:19Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - Comparison of Privacy-Preserving Distributed Deep Learning Methods in
Healthcare [0.0]
本稿では,プライバシ保護型分散学習技術であるフェデレーション学習,分割学習,SplitFedを比較した。
これらの手法を用いて,胸部X線から結核を検出するバイナリ分類モデルを開発した。
実験ではスプリットラーニングやスプリットFedv2よりも優れたパフォーマンスを発揮する,新しい分散学習アーキテクチャであるSplitFedv3を提案する。
論文 参考訳(メタデータ) (2020-12-23T10:45:52Z) - Learning to Match Jobs with Resumes from Sparse Interaction Data using
Multi-View Co-Teaching Network [83.64416937454801]
ジョブ列のインタラクションデータは疎結合でノイズが多く、ジョブ列のマッチングアルゴリズムのパフォーマンスに影響する。
求人情報マッチングのための疎相互作用データから,新しいマルチビュー協調学習ネットワークを提案する。
我々のモデルは求人マッチングの最先端手法より優れている。
論文 参考訳(メタデータ) (2020-09-25T03:09:54Z) - Proof of Learning (PoLe): Empowering Machine Learning with Consensus
Building on Blockchains [7.854034211489588]
ニューラルネットワーク(NN)の最適化に向けて,新たなコンセンサスメカニズムであるPoLe(Proof of Learning)を提案する。
我々のメカニズムでは、トレーニング/テストデータはブロックチェーンネットワーク全体(BCN)にリリースされ、コンセンサスノードはデータ上でNNモデルをトレーニングします。
我々はPoLeがより安定したブロック生成率を達成でき、それによってより効率的なトランザクション処理が実現できることを示す。
論文 参考訳(メタデータ) (2020-07-29T22:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。