論文の概要: "Adversarial Examples" for Proof-of-Learning
- arxiv url: http://arxiv.org/abs/2108.09454v1
- Date: Sat, 21 Aug 2021 07:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:58:51.417291
- Title: "Adversarial Examples" for Proof-of-Learning
- Title(参考訳): 実証学習における「逆例」
- Authors: Rui Zhang, Jian Liu, Yuan Ding, Qingbiao Wu, and Kui Ren
- Abstract要約: Jiaらは、PoLという新しい概念/メカニズムを提案した。
PoLは、トレーニング手順の完全性を証明することによって、機械学習モデルのオーナシップを証明可能にする。
PoL は "adrialversa example" に対して脆弱であることを示す。
- 参考スコア(独自算出の注目度): 32.438181794551035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In S&P '21, Jia et al. proposed a new concept/mechanism named
proof-of-learning (PoL), which allows a prover to demonstrate ownership of a
machine learning model by proving integrity of the training procedure. It
guarantees that an adversary cannot construct a valid proof with less cost (in
both computation and storage) than that made by the prover in generating the
proof. A PoL proof includes a set of intermediate models recorded during
training, together with the corresponding data points used to obtain each
recorded model. Jia et al. claimed that an adversary merely knowing the final
model and training dataset cannot efficiently find a set of intermediate models
with correct data points. In this paper, however, we show that PoL is
vulnerable to "adversarial examples"! Specifically, in a similar way as
optimizing an adversarial example, we could make an arbitrarily-chosen data
point "generate" a given model, hence efficiently generating intermediate
models with correct data points. We demonstrate, both theoretically and
empirically, that we are able to generate a valid proof with significantly less
cost than generating a proof by the prover, thereby we successfully break PoL.
- Abstract(参考訳): S&P'21では、Jia et al。
これは、証明者がトレーニング手順の完全性を証明することによって、機械学習モデルのオーナシップを実証することを可能にする。
証明の生成において証明者が行うものよりもコスト(計算量と記憶量の両方)の低い有効な証明を構築することはできない。
PoL証明は、トレーニング中に記録された一連の中間モデルと、記録された各モデルを得るために使用される対応するデータポイントを含む。
通称、jia et al。
最終的なモデルとトレーニングデータセットを知るだけの敵は、正しいデータポイントを持つ中間モデルのセットを効率的に見つけることができないと主張した。
しかし,本稿では,PoLが「逆例」に対して脆弱であることを示す。
具体的には、敵対的な例を最適化するのと同様の方法で、任意のモデルを任意に「生成」することで、正しいデータポイントを持つ中間モデルを効率的に生成することができる。
理論的にも経験的にも、証明者による証明よりもはるかに低コストで有効な証明を生成できることを示し、PoLを破ることに成功した。
関連論文リスト
- Membership Inference Attacks Cannot Prove that a Model Was Trained On Your Data [27.18781946018255]
ウェブスケールのデータに基づいてトレーニングされた基礎モデルに対する最近の訴訟では、データ証明のトレーニングが重要な役割を担っている。
多くの先行研究は、メンバシップ推論攻撃を用いたトレーニングデータ証明のインスタンス化を示唆している。
本研究では, 特殊なカナリアデータに対するデータ抽出攻撃と会員推定が, 音響訓練データ証明の作成に有効であることを示す。
論文 参考訳(メタデータ) (2024-09-29T21:49:32Z) - Lean-STaR: Learning to Interleave Thinking and Proving [53.923617816215774]
証明の各ステップに先立って,非公式な思考を生成するために,言語モデルをトレーニングするフレームワークであるLean-STaRを紹介します。
Lean-STaRは、Lean定理証明環境内のminiF2F-testベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T01:43:07Z) - Learn from Failure: Fine-Tuning LLMs with Trial-and-Error Data for Intuitionistic Propositional Logic Proving [41.23045212775232]
探索経路の失敗から学習する訓練モデルの利点を実証する。
既存のオープンソース定理証明データセットにそのような試行錯誤データが欠如しているにもかかわらず、直観論的命題論理定理のデータセットをキュレートする。
比較的短いトライアル・アンド・エラー情報(TrialMaster)で訓練されたモデルと、正しい経路でのみ訓練されたモデルを比較し、前者が低いトライアル探索でより目に見えない定理を解くことを発見した。
論文 参考訳(メタデータ) (2024-04-10T23:01:45Z) - Can Membership Inferencing be Refuted? [31.31060116447964]
本研究では,実際に会員推論攻撃の信頼性について検討する。
モデルオーナは,データポイント$x$のメンバシップ推論テストの結果に対して,検証の証明を構築することで,妥当に反証できることを示す。
本研究の結果は,実際に会員推論攻撃がもたらす影響を再評価するものである。
論文 参考訳(メタデータ) (2023-03-07T04:36:35Z) - Consistent Diffusion Models: Mitigating Sampling Drift by Learning to be
Consistent [97.64313409741614]
本稿では, モデルが生成したデータ上での予測が時間とともに一定であることを示す, 両立性特性を強制することを提案する。
CIFAR-10の条件および非条件生成とAFHQとFFHQのベースライン改良について,本研究の新たな訓練目標が得られた。
論文 参考訳(メタデータ) (2023-02-17T18:45:04Z) - Proof-of-Learning is Currently More Broken Than You Think [41.3211535926634]
本稿では,Proof-of-Learning(PoL)検証の異なる構成で再現できる最初のスプーフィング戦略を紹介する。
我々はPoLの重要な脆弱性を特定し、証明の堅牢な検証に必要な前提条件を体系的に分析する。
我々は,ディープラーニングにおける最適化のさらなる理解なしに,実証可能な堅牢なPoL検証機構を開発することはできないと結論づける。
論文 参考訳(メタデータ) (2022-08-06T19:07:07Z) - Generating Natural Language Proofs with Verifier-Guided Search [74.9614610172561]
NLProofS (Natural Language Proof Search) を提案する。
NLProofSは仮説に基づいて関連するステップを生成することを学習する。
EntailmentBank と RuleTaker の最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-25T02:22:30Z) - A Multi-Level Attention Model for Evidence-Based Fact Checking [58.95413968110558]
シーケンス構造をトレーニング可能な,シンプルなモデルを提案する。
Fact extract and VERification のための大規模データセットの結果、我々のモデルはグラフベースのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-02T05:40:12Z) - Proof-of-Learning: Definitions and Practice [15.585184189361486]
トレーニングマシンラーニング(ML)モデルは通常、高価な反復最適化を伴う。
現在、これらのパラメータが実際にこの最適化手順の結果であることを証明するためにモデルを訓練したエンティティのメカニズムはありません。
本稿では,MLにおける学習の証明という概念を紹介する。
論文 参考訳(メタデータ) (2021-03-09T18:59:54Z) - Variational Bayesian Unlearning [54.26984662139516]
本研究では, ベイズモデルの学習を, 消去する訓練データの小さな部分集合から, ほぼ非学習する問題について検討する。
消去されたデータから完全に学習されていないデータと、過去の信念を完全に忘れていないデータとをトレードオフする証拠を最小化するのと等価であることを示す。
VI を用いたモデルトレーニングでは、完全なデータから近似した(正確には)後続の信念しか得られず、未学習をさらに困難にしている。
論文 参考訳(メタデータ) (2020-10-24T11:53:00Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。