論文の概要: Proof-of-Learning is Currently More Broken Than You Think
- arxiv url: http://arxiv.org/abs/2208.03567v2
- Date: Mon, 17 Apr 2023 04:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 00:23:25.102892
- Title: Proof-of-Learning is Currently More Broken Than You Think
- Title(参考訳): 学習の証明は、現在想像以上に壊れている
- Authors: Congyu Fang, Hengrui Jia, Anvith Thudi, Mohammad Yaghini, Christopher
A. Choquette-Choo, Natalie Dullerud, Varun Chandrasekaran, Nicolas Papernot
- Abstract要約: 本稿では,Proof-of-Learning(PoL)検証の異なる構成で再現できる最初のスプーフィング戦略を紹介する。
我々はPoLの重要な脆弱性を特定し、証明の堅牢な検証に必要な前提条件を体系的に分析する。
我々は,ディープラーニングにおける最適化のさらなる理解なしに,実証可能な堅牢なPoL検証機構を開発することはできないと結論づける。
- 参考スコア(独自算出の注目度): 41.3211535926634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Proof-of-Learning (PoL) proposes that a model owner logs training checkpoints
to establish a proof of having expended the computation necessary for training.
The authors of PoL forego cryptographic approaches and trade rigorous security
guarantees for scalability to deep learning. They empirically argued the
benefit of this approach by showing how spoofing--computing a proof for a
stolen model--is as expensive as obtaining the proof honestly by training the
model. However, recent work has provided a counter-example and thus has
invalidated this observation.
In this work we demonstrate, first, that while it is true that current PoL
verification is not robust to adversaries, recent work has largely
underestimated this lack of robustness. This is because existing spoofing
strategies are either unreproducible or target weakened instantiations of
PoL--meaning they are easily thwarted by changing hyperparameters of the
verification. Instead, we introduce the first spoofing strategies that can be
reproduced across different configurations of the PoL verification and can be
done for a fraction of the cost of previous spoofing strategies. This is
possible because we identify key vulnerabilities of PoL and systematically
analyze the underlying assumptions needed for robust verification of a proof.
On the theoretical side, we show how realizing these assumptions reduces to
open problems in learning theory.We conclude that one cannot develop a provably
robust PoL verification mechanism without further understanding of optimization
in deep learning.
- Abstract(参考訳): Proof-of-Learning (PoL) では、モデルの所有者がトレーニングのチェックポイントをログし、トレーニングに必要な計算を拡張した証拠を確立することを提案している。
pol forego暗号アプローチと取引厳格なセキュリティによって、ディープラーニングへの拡張性が保証される。
彼らはこのアプローチの利点を、盗んだモデルに対する証明をいかにスプーフィングで計算するかを示すことによって実証的に論じた。
しかし、近年の研究は反例を提供しており、この観察を無効にしている。
この研究で、まず、現在のpol検証が敵に対して堅牢でないことは事実であるが、最近の研究は、この堅牢性の欠如をほとんど過小評価している。
これは、既存のスプーフィング戦略が再現不可能か、polの弱化インスタンス化を狙うかのどちらかであり、検証のハイパーパラメータを変更することで容易に妨害されるからである。
代わりに、pol検証のさまざまな構成で再現可能で、以前のspoofing戦略のコストのほんの一部で実行できる最初のspoofingストラテジを導入する。
これは、PoLの重要な脆弱性を特定し、証明の堅牢な検証に必要な前提条件を体系的に分析するためである。
理論的には、これらの仮定が学習理論においていかに開放的な問題に還元されるかを示し、深層学習における最適化を深く理解することなく、確実に堅牢なpol検証機構を開発することはできないと結論づける。
関連論文リスト
- The VLLM Safety Paradox: Dual Ease in Jailbreak Attack and Defense [56.32083100401117]
本稿では,視覚大言語モデル (VLLM) がジェイルブレイク攻撃のリスクが高い理由を考察する。
既存の防御機構は、テキストバウンド・プルーデンスの問題に悩まされる。
ジェイルブレイクの2つの代表的な評価手法は、しばしばチャンス合意を示す。
論文 参考訳(メタデータ) (2024-11-13T07:57:19Z) - Lean-STaR: Learning to Interleave Thinking and Proving [53.923617816215774]
証明の各ステップに先立って,非公式な思考を生成するために,言語モデルをトレーニングするフレームワークであるLean-STaRを紹介します。
Lean-STaRは、Lean定理証明環境内のminiF2F-testベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T01:43:07Z) - Learn from Failure: Fine-Tuning LLMs with Trial-and-Error Data for Intuitionistic Propositional Logic Proving [41.23045212775232]
探索経路の失敗から学習する訓練モデルの利点を実証する。
既存のオープンソース定理証明データセットにそのような試行錯誤データが欠如しているにもかかわらず、直観論的命題論理定理のデータセットをキュレートする。
比較的短いトライアル・アンド・エラー情報(TrialMaster)で訓練されたモデルと、正しい経路でのみ訓練されたモデルを比較し、前者が低いトライアル探索でより目に見えない定理を解くことを発見した。
論文 参考訳(メタデータ) (2024-04-10T23:01:45Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Generating Natural Language Proofs with Verifier-Guided Search [74.9614610172561]
NLProofS (Natural Language Proof Search) を提案する。
NLProofSは仮説に基づいて関連するステップを生成することを学習する。
EntailmentBank と RuleTaker の最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-25T02:22:30Z) - "Adversarial Examples" for Proof-of-Learning [32.438181794551035]
Jiaらは、PoLという新しい概念/メカニズムを提案した。
PoLは、トレーニング手順の完全性を証明することによって、機械学習モデルのオーナシップを証明可能にする。
PoL は "adrialversa example" に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2021-08-21T07:56:29Z) - Proof-of-Learning: Definitions and Practice [15.585184189361486]
トレーニングマシンラーニング(ML)モデルは通常、高価な反復最適化を伴う。
現在、これらのパラメータが実際にこの最適化手順の結果であることを証明するためにモデルを訓練したエンティティのメカニズムはありません。
本稿では,MLにおける学習の証明という概念を紹介する。
論文 参考訳(メタデータ) (2021-03-09T18:59:54Z) - Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting [100.75479161884935]
我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
論文 参考訳(メタデータ) (2020-10-04T10:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。