論文の概要: Certified PEFTSmoothing: Parameter-Efficient Fine-Tuning with Randomized Smoothing
- arxiv url: http://arxiv.org/abs/2404.05350v1
- Date: Mon, 8 Apr 2024 09:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 14:54:22.263726
- Title: Certified PEFTSmoothing: Parameter-Efficient Fine-Tuning with Randomized Smoothing
- Title(参考訳): Certified PEFTSmoothing:ランダム化平滑化によるパラメータ効率の良いファインチューニング
- Authors: Chengyan Fu, Wenjie Wang,
- Abstract要約: ランダム化平滑化は,l2-ノルムの対向摂動に対して,ディープラーニングモデルの頑健性にアクセスするための主要な確証付き頑健性手法である。
広く採用されることを制限する顕著な制約は、ベースモデルをスクラッチからリトレーニングし、堅牢なバージョンを得る必要があることである。
これは、ベースモデルがノイズの増大したデータ分布を学習し、正確な投票を行うのに失敗するためである。
近年の大規模モデルトレーニングに触発されて,ベースモデルに適応して雑音付加データを学ぶために,PEFTSmoothingという別の手法を提案する。
- 参考スコア(独自算出の注目度): 6.86204821852287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Randomized smoothing is the primary certified robustness method for accessing the robustness of deep learning models to adversarial perturbations in the l2-norm, by adding isotropic Gaussian noise to the input image and returning the majority votes over the base classifier. Theoretically, it provides a certified norm bound, ensuring predictions of adversarial examples are stable within this bound. A notable constraint limiting widespread adoption is the necessity to retrain base models entirely from scratch to attain a robust version. This is because the base model fails to learn the noise-augmented data distribution to give an accurate vote. One intuitive way to overcome this challenge is to involve a custom-trained denoiser to eliminate the noise. However, this approach is inefficient and sub-optimal. Inspired by recent large model training procedures, we explore an alternative way named PEFTSmoothing to adapt the base model to learn the Gaussian noise-augmented data with Parameter-Efficient Fine-Tuning (PEFT) methods in both white-box and black-box settings. Extensive results demonstrate the effectiveness and efficiency of PEFTSmoothing, which allow us to certify over 98% accuracy for ViT on CIFAR-10, 20% higher than SoTA denoised smoothing, and over 61% accuracy on ImageNet which is 30% higher than CNN-based denoiser and comparable to the Diffusion-based denoiser.
- Abstract(参考訳): ランダム化スムーシングは、入力画像に等方的ガウス雑音を加え、ベース分類器に多数票を返すことにより、L2-ノルムの逆摂動に対してディープラーニングモデルの頑健性にアクセスするための主要な証明されたロバスト性手法である。
理論的には、証明されたノルム境界を提供し、逆例の予測がこの境界内で安定であることを保証する。
広く採用されることを制限する顕著な制約は、ベースモデルをスクラッチからリトレーニングし、堅牢なバージョンを得る必要があることである。
これは、ベースモデルがノイズの増大したデータ分布を学習して正確な投票を行うのに失敗するためである。
この課題を克服する直感的な方法の1つは、ノイズを取り除くためにカスタムトレーニングされたデノイザーを巻き込むことである。
しかし、このアプローチは非効率で準最適である。
近年の大規模モデルトレーニングに触発されて,PEFTSmoothing と呼ばれる代替手法を探索し,ホワイトボックスとブラックボックスの設定の両方でパラメータ効率の良い微細チューニング(PEFT)法を用いてガウス雑音増大データ(英語版)を学習する。
PEFTSmoothing の有効性と有効性を示し,CIFAR-10 では ViT の 98% 以上,SoTA では 20% 以上,CNN では 30% 以上,Diffusion では 61% 以上であった。
関連論文リスト
- Certifying Adapters: Enabling and Enhancing the Certification of Classifier Adversarial Robustness [21.394217131341932]
本稿では,対向ロバスト性の証明を可能にする新しい認証アダプタフレームワーク(CAF)を提案する。
CAFは、ランダムまたは復号化スムーシングに基づく手法と比較して、認証精度の向上を実現している。
アダプタのアンサンブルにより、1つの事前訓練された特徴抽出器は、様々なノイズ摂動スケールに対して防御することができる。
論文 参考訳(メタデータ) (2024-05-25T03:18:52Z) - Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - Multi-scale Diffusion Denoised Smoothing [79.95360025953931]
ランダムな平滑化は、大規模モデルに敵対的ロバスト性を提供する、いくつかの具体的なアプローチの1つになっている。
本報告では, 分割平滑化におけるロバスト性と精度との現在のトレードオフに対処するスケーラブルな手法を提案する。
提案手法と拡散微細調整を併用したマルチスケール平滑化手法により,高騒音レベルで高い信頼性のロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:11:21Z) - Improving the Accuracy-Robustness Trade-Off of Classifiers via Adaptive Smoothing [9.637143119088426]
正誤例に対する頑健な基本分類器の信頼性差が,この改良の鍵となることを示す。
逆入力検出器を2つのベースモデルの混合を適応的に調整する混合ネットワークに適応させる。
提案したフレキシブルな手法は「適応的平滑化(adaptive smoothing)」と呼ばれ、クリーンな精度、堅牢性、あるいは敵検出を改善する既存のあるいは将来の方法と連携して機能する。
論文 参考訳(メタデータ) (2023-01-29T22:05:28Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - Denoising Distantly Supervised Named Entity Recognition via a
Hypergeometric Probabilistic Model [26.76830553508229]
ハイパージオメトリ・ラーニング(HGL)は、遠距離教師付きエンティティ認識のための認知アルゴリズムである。
HGLはノイズ分布とインスタンスレベルの信頼性の両方を考慮に入れている。
実験により、HGLは遠方の監督から取得した弱いラベル付きデータを効果的に復調できることが示された。
論文 参考訳(メタデータ) (2021-06-17T04:01:25Z) - Insta-RS: Instance-wise Randomized Smoothing for Improved Robustness and
Accuracy [9.50143683501477]
Insta-RSは、テスト例にカスタマイズされたガウス分散を割り当てるマルチスタート検索アルゴリズムである。
Insta-RS Trainは、各トレーニング例のノイズレベルを適応的に調整し、カスタマイズする新しい2段階トレーニングアルゴリズムです。
本手法は,平均認定半径(ACR)とクリーンデータ精度を有意に向上させることを示した。
論文 参考訳(メタデータ) (2021-03-07T19:46:07Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。