論文の概要: Is Certifying $\ell_p$ Robustness Still Worthwhile?
- arxiv url: http://arxiv.org/abs/2310.09361v1
- Date: Fri, 13 Oct 2023 19:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 22:25:54.155368
- Title: Is Certifying $\ell_p$ Robustness Still Worthwhile?
- Title(参考訳): Certifying $\ell_p$ Robustnessはまだ価値はあるのか?
- Authors: Ravi Mangal, Klas Leino, Zifan Wang, Kai Hu, Weicheng Yu, Corina
Pasareanu, Anupam Datta, Matt Fredrikson
- Abstract要約: 局所ロバスト性認証は、機械学習の分野に実際的な価値をもたらすと我々は主張する。
認定トレーニングテクニックは、堅牢なモデルを学習するための、特に有望な方法です。
- 参考スコア(独自算出の注目度): 35.56301583200841
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the years, researchers have developed myriad attacks that exploit the
ubiquity of adversarial examples, as well as defenses that aim to guard against
the security vulnerabilities posed by such attacks. Of particular interest to
this paper are defenses that provide provable guarantees against the class of
$\ell_p$-bounded attacks. Certified defenses have made significant progress,
taking robustness certification from toy models and datasets to large-scale
problems like ImageNet classification. While this is undoubtedly an interesting
academic problem, as the field has matured, its impact in practice remains
unclear, thus we find it useful to revisit the motivation for continuing this
line of research. There are three layers to this inquiry, which we address in
this paper: (1) why do we care about robustness research? (2) why do we care
about the $\ell_p$-bounded threat model? And (3) why do we care about
certification as opposed to empirical defenses? In brief, we take the position
that local robustness certification indeed confers practical value to the field
of machine learning. We focus especially on the latter two questions from
above. With respect to the first of the two, we argue that the $\ell_p$-bounded
threat model acts as a minimal requirement for safe application of models in
security-critical domains, while at the same time, evidence has mounted
suggesting that local robustness may lead to downstream external benefits not
immediately related to robustness. As for the second, we argue that (i)
certification provides a resolution to the cat-and-mouse game of adversarial
attacks; and furthermore, that (ii) perhaps contrary to popular belief, there
may not exist a fundamental trade-off between accuracy, robustness, and
certifiability, while moreover, certified training techniques constitute a
particularly promising way for learning robust models.
- Abstract(参考訳): 何年にもわたって、敵対的な例を多用する無数の攻撃や、そのような攻撃によって引き起こされるセキュリティ上の脆弱性を防ごうとする防衛策が開発されてきた。
この論文に特に興味があるのは、$\ell_p$-bounded 攻撃のクラスに対して証明可能な保証を提供する防御である。
認証された防御は大きな進歩を遂げており、おもちゃのモデルやデータセットからImageNet分類のような大規模な問題への堅牢性認証を取り入れている。
これは興味深い学術的問題であることは間違いないが、この分野が成熟した今、その実践への影響は未だ不明であり、この研究を継続する動機を再考することは有用である。
この調査には3つのレイヤがあり、本論文で取り上げている。(1) 堅牢性の研究になぜ関心があるのか?
(2) なぜ$\ell_p$-bounded threatモデルに関心があるのか?
(3)実証的な防御とは対照的に、認証をどう扱うのか?
簡単に言えば、局所ロバスト性認証は実際に機械学習の分野に実用的価値を与えるという立場を取る。
特に上記の2つの質問に焦点を合わせます。
セキュリティクリティカルな領域におけるモデルの安全な適用には,$\ell_p$-bounded threat modelが最小限の要件として機能する一方で,局所ロバスト性は,ロバスト性とは無関係な下流外的メリットをもたらす可能性が示唆されている。
2番目については、我々は議論する。
(i)敵の攻撃のキャット・アンド・モーズゲームに対する解決法、更にその解決法
(ii) 一般の信条に反し、正確性、堅牢性、証明性の間には根本的なトレードオフは存在せず、さらに、認定された訓練技術は、堅牢なモデルを学ぶ上で特に有望な方法である。
関連論文リスト
- The VLLM Safety Paradox: Dual Ease in Jailbreak Attack and Defense [56.32083100401117]
本稿では,視覚大言語モデル (VLLM) がジェイルブレイク攻撃のリスクが高い理由を考察する。
既存の防御機構は、テキストバウンド・プルーデンスの問題に悩まされる。
ジェイルブレイクの2つの代表的な評価手法は、しばしばチャンス合意を示す。
論文 参考訳(メタデータ) (2024-11-13T07:57:19Z) - Certified Causal Defense with Generalizable Robustness [14.238441767523602]
本稿では,認証防衛における一般化問題に因果的視点を取り入れた新しい認証防衛フレームワークGLEANを提案する。
本フレームワークは,因果関係と入力とラベル間の素因果関係を乱すために,認証因果関係学習コンポーネントを統合する。
そこで我々は,潜在因果的要因に対する敵対的攻撃に対処するために,因果的に認証された防衛戦略を設計する。
論文 参考訳(メタデータ) (2024-08-28T00:14:09Z) - Designing an attack-defense game: how to increase robustness of
financial transaction models via a competition [69.08339915577206]
金融セクターにおける悪意ある攻撃のエスカレートリスクを考えると、機械学習モデルの敵戦略と堅牢な防御メカニズムを理解することが重要である。
本研究の目的は、逐次的な財務データを入力として使用するニューラルネットワークモデルに対する敵攻撃と防御の現状とダイナミクスを調査することである。
我々は、現代の金融取引データにおける問題の現実的かつ詳細な調査を可能にする競争を設計した。
参加者は直接対決するので、実生活に近い環境で攻撃や防御が検討される。
論文 参考訳(メタデータ) (2023-08-22T12:53:09Z) - How robust accuracy suffers from certified training with convex
relaxations [12.292092677396347]
アドリア攻撃は、安全クリティカルなアプリケーションに最先端の分類器を配置する上で重大な脅威となる。
この問題に対処するために、実証的な防御と認定された防御という2つの方法のクラスが登場した。
複数のコンピュータビジョンタスクにおいて、これらの2つの堅牢なトレーニングパラダイムの標準および堅牢なエラーを体系的に比較する。
論文 参考訳(メタデータ) (2023-06-12T09:45:21Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Raising the Bar for Certified Adversarial Robustness with Diffusion
Models [9.684141378657522]
本研究では,同様のアプローチが決定論的証明された防御を著しく改善できることを実証する。
主な洞察の1つは、元のモデルのトレーニングとテストの精度の違いは、改善の規模を予測できることです。
提案手法は,CIFAR-10 上で $ell$ ($epsilon = 36/255$) および $ell_infty$ ($epsilon = 8/255$) 脅威モデルに対して,最先端の決定論的堅牢性証明を実現する。
論文 参考訳(メタデータ) (2023-05-17T17:29:10Z) - Et Tu Certifications: Robustness Certificates Yield Better Adversarial Examples [30.42301446202426]
我々の新しいEmphCertification Aware Attackは、計算効率のよい規範最小化対逆例を生成するために認証を利用する。
これらの攻撃は、認証境界の厳密性を評価するために使用できるが、認定のリリースは、パラドックス的にセキュリティを低下させる可能性があることも強調している。
論文 参考訳(メタデータ) (2023-02-09T00:10:05Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - Adversarial Robustness under Long-Tailed Distribution [93.50792075460336]
敵対的ロバスト性はディープネットワークの脆弱性と本質的特徴を明らかにすることで近年広く研究されている。
本研究では,長尾分布下における敵対的脆弱性と防御について検討する。
我々は、スケール不変とデータ再分散という2つの専用モジュールからなるクリーンで効果的なフレームワークであるRoBalを提案する。
論文 参考訳(メタデータ) (2021-04-06T17:53:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。