論文の概要: Proof-of-Learning is Currently More Broken Than You Think
- arxiv url: http://arxiv.org/abs/2208.03567v2
- Date: Mon, 17 Apr 2023 04:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 00:23:25.102892
- Title: Proof-of-Learning is Currently More Broken Than You Think
- Title(参考訳): 学習の証明は、現在想像以上に壊れている
- Authors: Congyu Fang, Hengrui Jia, Anvith Thudi, Mohammad Yaghini, Christopher
A. Choquette-Choo, Natalie Dullerud, Varun Chandrasekaran, Nicolas Papernot
- Abstract要約: 本稿では,Proof-of-Learning(PoL)検証の異なる構成で再現できる最初のスプーフィング戦略を紹介する。
我々はPoLの重要な脆弱性を特定し、証明の堅牢な検証に必要な前提条件を体系的に分析する。
我々は,ディープラーニングにおける最適化のさらなる理解なしに,実証可能な堅牢なPoL検証機構を開発することはできないと結論づける。
- 参考スコア(独自算出の注目度): 41.3211535926634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Proof-of-Learning (PoL) proposes that a model owner logs training checkpoints
to establish a proof of having expended the computation necessary for training.
The authors of PoL forego cryptographic approaches and trade rigorous security
guarantees for scalability to deep learning. They empirically argued the
benefit of this approach by showing how spoofing--computing a proof for a
stolen model--is as expensive as obtaining the proof honestly by training the
model. However, recent work has provided a counter-example and thus has
invalidated this observation.
In this work we demonstrate, first, that while it is true that current PoL
verification is not robust to adversaries, recent work has largely
underestimated this lack of robustness. This is because existing spoofing
strategies are either unreproducible or target weakened instantiations of
PoL--meaning they are easily thwarted by changing hyperparameters of the
verification. Instead, we introduce the first spoofing strategies that can be
reproduced across different configurations of the PoL verification and can be
done for a fraction of the cost of previous spoofing strategies. This is
possible because we identify key vulnerabilities of PoL and systematically
analyze the underlying assumptions needed for robust verification of a proof.
On the theoretical side, we show how realizing these assumptions reduces to
open problems in learning theory.We conclude that one cannot develop a provably
robust PoL verification mechanism without further understanding of optimization
in deep learning.
- Abstract(参考訳): Proof-of-Learning (PoL) では、モデルの所有者がトレーニングのチェックポイントをログし、トレーニングに必要な計算を拡張した証拠を確立することを提案している。
pol forego暗号アプローチと取引厳格なセキュリティによって、ディープラーニングへの拡張性が保証される。
彼らはこのアプローチの利点を、盗んだモデルに対する証明をいかにスプーフィングで計算するかを示すことによって実証的に論じた。
しかし、近年の研究は反例を提供しており、この観察を無効にしている。
この研究で、まず、現在のpol検証が敵に対して堅牢でないことは事実であるが、最近の研究は、この堅牢性の欠如をほとんど過小評価している。
これは、既存のスプーフィング戦略が再現不可能か、polの弱化インスタンス化を狙うかのどちらかであり、検証のハイパーパラメータを変更することで容易に妨害されるからである。
代わりに、pol検証のさまざまな構成で再現可能で、以前のspoofing戦略のコストのほんの一部で実行できる最初のspoofingストラテジを導入する。
これは、PoLの重要な脆弱性を特定し、証明の堅牢な検証に必要な前提条件を体系的に分析するためである。
理論的には、これらの仮定が学習理論においていかに開放的な問題に還元されるかを示し、深層学習における最適化を深く理解することなく、確実に堅牢なpol検証機構を開発することはできないと結論づける。
関連論文リスト
- Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [102.00359477458029]
本稿では,ニューラル・シンボリック統合法について述べる。
LLMフリーのシンボリック・ソルバを用いて、知識を用いた熟考的推論を行う。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - A Closer Look at the Self-Verification Abilities of Large Language
Models in Logical Reasoning [79.14479982371984]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Are LLMs Rigorous Logical Reasoner? Empowering Natural Language Proof
Generation with Contrastive Stepwise Decoding [11.385103498440932]
本稿では,論理的推論のためのモデルの能力を高めるために,負の推論経路を用いることにより,ステップワイズな証明生成に対照的な復号を導入する。
EntailmentBankの実験は、言語モデルの計画能力を実証する上で、我々の手法の成功を裏付けている。
論文 参考訳(メタデータ) (2023-11-12T05:12:49Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Generating Natural Language Proofs with Verifier-Guided Search [74.9614610172561]
NLProofS (Natural Language Proof Search) を提案する。
NLProofSは仮説に基づいて関連するステップを生成することを学習する。
EntailmentBank と RuleTaker の最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-25T02:22:30Z) - "Adversarial Examples" for Proof-of-Learning [32.438181794551035]
Jiaらは、PoLという新しい概念/メカニズムを提案した。
PoLは、トレーニング手順の完全性を証明することによって、機械学習モデルのオーナシップを証明可能にする。
PoL は "adrialversa example" に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2021-08-21T07:56:29Z) - Proof-of-Learning: Definitions and Practice [15.585184189361486]
トレーニングマシンラーニング(ML)モデルは通常、高価な反復最適化を伴う。
現在、これらのパラメータが実際にこの最適化手順の結果であることを証明するためにモデルを訓練したエンティティのメカニズムはありません。
本稿では,MLにおける学習の証明という概念を紹介する。
論文 参考訳(メタデータ) (2021-03-09T18:59:54Z) - Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting [100.75479161884935]
我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
論文 参考訳(メタデータ) (2020-10-04T10:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。