論文の概要: Certified Robustness Under Bounded Levenshtein Distance
- arxiv url: http://arxiv.org/abs/2501.13676v1
- Date: Thu, 23 Jan 2025 13:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:48.882757
- Title: Certified Robustness Under Bounded Levenshtein Distance
- Title(参考訳): 境界レベンシュテイン距離によるロバスト性認定
- Authors: Elias Abad Rocamora, Grigorios G. Chrysos, Volkan Cevher,
- Abstract要約: 畳み込み型分類器のリプシッツ定数をレヴェンシュテイン距離に対して計算する最初の方法を提案する。
我々の方法であるLipsLevは、それぞれ18.80ドル%と13.93ドル%の精度を1ドルと2ドルで得ることができる。
- 参考スコア(独自算出の注目度): 55.54271307451233
- License:
- Abstract: Text classifiers suffer from small perturbations, that if chosen adversarially, can dramatically change the output of the model. Verification methods can provide robustness certificates against such adversarial perturbations, by computing a sound lower bound on the robust accuracy. Nevertheless, existing verification methods incur in prohibitive costs and cannot practically handle Levenshtein distance constraints. We propose the first method for computing the Lipschitz constant of convolutional classifiers with respect to the Levenshtein distance. We use these Lipschitz constant estimates for training 1-Lipschitz classifiers. This enables computing the certified radius of a classifier in a single forward pass. Our method, LipsLev, is able to obtain $38.80$% and $13.93$% verified accuracy at distance $1$ and $2$ respectively in the AG-News dataset, while being $4$ orders of magnitude faster than existing approaches. We believe our work can open the door to more efficient verification in the text domain.
- Abstract(参考訳): テキスト分類器は小さな摂動に悩まされ、もし選択された場合、モデルの出力が劇的に変化する。
検証手法は、ロバスト精度の低い音を演算することにより、このような逆の摂動に対して堅牢性証明を提供することができる。
それでも、既存の検証手法は禁止費用がかかり、レヴェンシュテイン距離の制約を実質的には扱えない。
畳み込み型分類器のリプシッツ定数をレヴェンシュテイン距離に対して計算する最初の方法を提案する。
我々は、これらのリプシッツ定数推定を1-リプシッツ分類器の訓練に使用する。
これにより、1つのフォワードパスで分類器の認定半径を計算することができる。
我々の手法であるLipsLevは、AG-Newsデータセットでそれぞれ18.80ドル%と13.93ドル%の精度をそれぞれ1ドルと2ドルで取得でき、既存のアプローチより4ドル速い。
私たちは、テキストドメインでより効率的な検証を行うための扉を開くことができると信じています。
関連論文リスト
- The Lipschitz-Variance-Margin Tradeoff for Enhanced Randomized Smoothing [85.85160896547698]
ディープニューラルネットワークの現実的な応用は、ノイズの多い入力や敵攻撃に直面した場合、その不安定な予測によって妨げられる。
入力にノイズ注入を頼りに、認証された半径を持つ効率的な分類器を設計する方法を示す。
新たな認証手法により、ランダムな平滑化による事前学習モデルの使用が可能となり、ゼロショット方式で現在の認証半径を効果的に改善できる。
論文 参考訳(メタデータ) (2023-09-28T22:41:47Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Improved techniques for deterministic l2 robustness [63.34032156196848]
畳み込みニューラルネットワーク(CNN)を$l_2$ノルムの下で厳密な1-Lipschitz制約で訓練することは、対向的堅牢性、解釈可能な勾配、安定した訓練に有用である。
我々は,最後の線形層を1重層に置き換えることで,1-Lipschitz CNNのロバスト性を証明する手法を提案する。
我々は,CIFAR-10およびCIFAR-100における標準および証明可能な堅牢な精度の最先端化を図る。
論文 参考訳(メタデータ) (2022-11-15T19:10:12Z) - Getting a-Round Guarantees: Floating-Point Attacks on Certified Robustness [19.380453459873298]
敵の例は、わずかな入力摂動によって機械学習分類器の決定を変更できるため、セキュリティリスクを引き起こす。
これらの保証は、ラウンドエラーを引き起こす浮動小数点表現の制限により無効化可能であることを示す。
この攻撃は、正確な認証保証を持つ線形分類器や、保守的な認証を持つニューラルネットワークに対して実行可能であることを示す。
論文 参考訳(メタデータ) (2022-05-20T13:07:36Z) - Smooth-Reduce: Leveraging Patches for Improved Certified Robustness [100.28947222215463]
本研究では,Smooth-Reduce の学習自由な修正スムース化手法を提案する。
提案アルゴリズムは,入力画像から抽出した重なり合うパッチを分類し,予測ロジットを集約して,入力周辺の半径が大きいことを証明する。
我々は,このような証明書の理論的保証を提供し,他のランダムな平滑化手法に対する顕著な改善を実証的に示す。
論文 参考訳(メタデータ) (2022-05-12T15:26:20Z) - Extensions and limitations of randomized smoothing for robustness
guarantees [13.37805637358556]
平滑化対策の相違が最終ロバスト性保証にどのように影響するかを検討する。
我々は,任意の$ell_p$$pinmathbbN_>0$に対するロバスト性を証明する手法を開発した。
論文 参考訳(メタデータ) (2020-06-07T17:22:32Z) - A Closer Look at Accuracy vs. Robustness [94.2226357646813]
堅牢なネットワークをトレーニングする現在の方法は、テスト精度の低下につながる。
実際の画像データセットが実際に分離されていることを示す。
我々は、実際に堅牢性と精度を達成するには、局所的なリプシッツを強制する手法を使う必要があると結論付けている。
論文 参考訳(メタデータ) (2020-03-05T07:09:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。