論文の概要: Binary Linear Tree Commitment-based Ownership Protection for Distributed
Machine Learning
- arxiv url: http://arxiv.org/abs/2401.05895v1
- Date: Thu, 11 Jan 2024 13:11:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-12 14:39:03.273655
- Title: Binary Linear Tree Commitment-based Ownership Protection for Distributed
Machine Learning
- Title(参考訳): 分散機械学習のためのバイナリリニアツリーコミットメントに基づくオーナシップ保護
- Authors: Tianxiu Xie and Keke Gai and Jing Yu and Liehuang Zhu
- Abstract要約: 分散機械学習のための新しいコミットメントに基づくオーナシップ保護モデルを提案する。
本モデルでは, 内部積の議論を生かして, 効率的な証明アグリゲーションを実現する。
SNARKに基づくハッシュコミットメントの性能解析と比較により,本モデルの有効性が検証された。
- 参考スコア(独自算出の注目度): 17.98670979601596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed machine learning enables parallel training of extensive datasets
by delegating computing tasks across multiple workers. Despite the cost
reduction benefits of distributed machine learning, the dissemination of final
model weights often leads to potential conflicts over model ownership as
workers struggle to substantiate their involvement in the training computation.
To address the above ownership issues and prevent accidental failures and
malicious attacks, verifying the computational integrity and effectiveness of
workers becomes particularly crucial in distributed machine learning. In this
paper, we proposed a novel binary linear tree commitment-based ownership
protection model to ensure computational integrity with limited overhead and
concise proof. Due to the frequent updates of parameters during training, our
commitment scheme introduces a maintainable tree structure to reduce the costs
of updating proofs. Distinguished from SNARK-based verifiable computation, our
model achieves efficient proof aggregation by leveraging inner product
arguments. Furthermore, proofs of model weights are watermarked by worker
identity keys to prevent commitments from being forged or duplicated. The
performance analysis and comparison with SNARK-based hash commitments validate
the efficacy of our model in preserving computational integrity within
distributed machine learning.
- Abstract(参考訳): 分散機械学習は、複数のワーカー間でコンピューティングタスクを委譲することで、広範なデータセットの並列トレーニングを可能にする。
分散機械学習のコスト削減の利点にもかかわらず、最終的なモデル重み付けの普及は、労働者がトレーニング計算への関与を実証するのに苦労するため、モデルオーナシップの潜在的な競合につながることが多い。
上記のオーナシップ問題に対処し、偶発的障害や悪意ある攻撃を防止するため、分散機械学習において、労働者の計算的完全性と有効性を検証することが特に重要である。
本稿では,オーバーヘッドが限定された計算完全性を確保し,簡潔な証明を行うための,新しい二項線形木コミットメントに基づく所有権保護モデルを提案する。
トレーニング中のパラメータの頻繁な更新のため,本手法では,証明更新のコストを削減するため,維持可能な木構造を導入する。
snarkベースの検証可能な計算と区別して,本モデルは内部積引数を活用し,効率的な証明集約を実現する。
さらに、モデル重みの証明は、コミットの偽造や複製を防止するために、ワーカーidキーによって透かし付けされる。
SNARKに基づくハッシュコミットメントの性能解析と比較は、分散機械学習における計算整合性を維持する上で、我々のモデルの有効性を検証する。
関連論文リスト
- CAMH: Advancing Model Hijacking Attack in Machine Learning [44.58778557522968]
Category-Agnostic Model Hijacking (CAMH) は、新しいモデルハイジャック攻撃法である。
クラス番号のミスマッチ、データ分散のばらつき、元のタスクとハイジャックタスクのパフォーマンスバランスの問題に対処する。
本研究は,本来のタスクの性能を最小限に抑えつつ,攻撃効果を実証するものである。
論文 参考訳(メタデータ) (2024-08-25T07:03:01Z) - FullCert: Deterministic End-to-End Certification for Training and Inference of Neural Networks [62.897993591443594]
FullCertは、音と決定論的境界を持つ最初のエンドツーエンドの認証器である。
2つのデータセットに対してFullCertの有効性を実験的に示す。
論文 参考訳(メタデータ) (2024-06-17T13:23:52Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率の高いディープアンサンブル手法であるLoRA-Ensembleを紹介する。
全メンバー間で重みを共有できる1つの事前学習型自己注意ネットワークを利用することで、注意投影のために、メンバー固有の低ランク行列を訓練する。
提案手法は明示的なアンサンブルよりも優れたキャリブレーションを示し,様々な予測タスクやデータセットに対して類似あるいは良好な精度を実現する。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Alleviating the Effect of Data Imbalance on Adversarial Training [26.36714114672729]
長い尾の分布に従うデータセットの逆トレーニングについて検討する。
我々は、新しい対人訓練フレームワーク、Re-balancing Adversarial Training (REAT)を提案する。
論文 参考訳(メタデータ) (2023-07-14T07:01:48Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Proof-of-Learning: Definitions and Practice [15.585184189361486]
トレーニングマシンラーニング(ML)モデルは通常、高価な反復最適化を伴う。
現在、これらのパラメータが実際にこの最適化手順の結果であることを証明するためにモデルを訓練したエンティティのメカニズムはありません。
本稿では,MLにおける学習の証明という概念を紹介する。
論文 参考訳(メタデータ) (2021-03-09T18:59:54Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Adversarial Robustness of Supervised Sparse Coding [34.94566482399662]
表現を学習すると同時に、正確な一般化境界と堅牢性証明を与えるモデルを考える。
線形エンコーダと組み合わされたスパーシティプロモーティングエンコーダを組み合わせた仮説クラスに着目した。
エンドツーエンドの分類のための堅牢性証明を提供する。
論文 参考訳(メタデータ) (2020-10-22T22:05:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。