論文の概要: Robust and Accurate Authorship Attribution via Program Normalization
- arxiv url: http://arxiv.org/abs/2007.00772v3
- Date: Fri, 25 Feb 2022 20:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 22:55:20.735771
- Title: Robust and Accurate Authorship Attribution via Program Normalization
- Title(参考訳): プログラム正規化によるロバストかつ正確なオーサシップ属性
- Authors: Yizhen Wang, Mohannad Alhanahnah, Ke Wang, Mihai Christodorescu,
Somesh Jha
- Abstract要約: ソースコード帰属アプローチは、ディープラーニングの急速な進歩により、驚くほどの精度を実現している。
特に、他の作者の偽作を作ろうとする敵や、原作者を偽装しようとする敵に騙されやすい。
我々は、理論上、著者帰属アプローチの堅牢性を保証する新しい学習フレームワークである$textitnormalize-and-predict$(textitN&P$)を提案する。
- 参考スコア(独自算出の注目度): 24.381734600088453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Source code attribution approaches have achieved remarkable accuracy thanks
to the rapid advances in deep learning. However, recent studies shed light on
their vulnerability to adversarial attacks. In particular, they can be easily
deceived by adversaries who attempt to either create a forgery of another
author or to mask the original author. To address these emerging issues, we
formulate this security challenge into a general threat model, the
$\textit{relational adversary}$, that allows an arbitrary number of the
semantics-preserving transformations to be applied to an input in any problem
space. Our theoretical investigation shows the conditions for robustness and
the trade-off between robustness and accuracy in depth. Motivated by these
insights, we present a novel learning framework,
$\textit{normalize-and-predict}$ ($\textit{N&P}$), that in theory guarantees
the robustness of any authorship-attribution approach. We conduct an extensive
evaluation of $\textit{N&P}$ in defending two of the latest
authorship-attribution approaches against state-of-the-art attack methods. Our
evaluation demonstrates that $\textit{N&P}$ improves the accuracy on
adversarial inputs by as much as 70% over the vanilla models. More importantly,
$\textit{N&P}$ also increases robust accuracy to 45% higher than adversarial
training while running over 40 times faster.
- Abstract(参考訳): ソースコード帰属アプローチは、ディープラーニングの急速な進歩により、驚くほどの精度を達成した。
しかし、近年の研究は敵の攻撃に対する脆弱性を明らかにしている。
特に、他の作者の偽作を作ろうとする敵や、原作者を偽装しようとする敵に騙されやすい。
これらの問題に対処するために、このセキュリティ課題を一般的な脅威モデルである$\textit{relational adversary}$に定式化し、任意の数のセマンティクス保存変換を任意の問題空間の入力に適用できるようにする。
我々の理論的研究は、ロバストネスの条件と深さにおけるロバストネスと精度のトレードオフを示している。
これらの洞察に動機づけられた新しい学習フレームワークである$\textit{normalize-and-predict}$ (\textit{n&p}$) を提案する。
我々は,最先端攻撃手法に対する最新の著作者属性アプローチ2つを擁護するために,$\textit{n&p}$を広範囲に評価する。
評価の結果、$\textit{n&p}$はバニラモデルよりも70%精度が向上することが示された。
さらに重要なことに、$\textit{n&p}$は、40倍以上の速度で実行しながら、敵のトレーニングよりも45%高い堅牢な精度に向上する。
関連論文リスト
- CR-UTP: Certified Robustness against Universal Text Perturbations on Large Language Models [12.386141652094999]
ランダムな平滑化に基づく既存の証明されたロバスト性は、入力固有のテキスト摂動の証明にかなりの可能性を示している。
ナイーブな方法は、単にマスキング比とマスキング攻撃トークンの可能性を増大させることであるが、認証精度と認証半径の両方を著しく低下させる。
本研究では,マスキングにおいて高い認証精度を維持する優れたプロンプトを識別する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T01:02:22Z) - ADDMU: Detection of Far-Boundary Adversarial Examples with Data and
Model Uncertainty Estimation [125.52743832477404]
AED(Adversarial Examples Detection)は、敵攻撃に対する重要な防御技術である。
本手法は, 正逆検出とFB逆検出の2種類の不確実性推定を組み合わせた新しい手法である textbfADDMU を提案する。
提案手法は,各シナリオにおいて,従来の手法よりも3.6と6.0のEmphAUC点が優れていた。
論文 参考訳(メタデータ) (2022-10-22T09:11:12Z) - Practical Evaluation of Adversarial Robustness via Adaptive Auto Attack [96.50202709922698]
実用的な評価手法は、便利な(パラメータフリー)、効率的な(イテレーションの少ない)、信頼性を持つべきである。
本稿では,パラメータフリーな適応オートアタック (A$3$) 評価手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T04:53:54Z) - Towards Variable-Length Textual Adversarial Attacks [68.27995111870712]
データの離散性のため、自然言語処理タスクに対してテキストによる敵意攻撃を行うことは非自明である。
本稿では,可変長テキスト対比攻撃(VL-Attack)を提案する。
本手法は、iwslt14ドイツ語英訳で3,18$ bleuスコアを達成でき、ベースラインモデルより1.47$改善できる。
論文 参考訳(メタデータ) (2021-04-16T14:37:27Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - RobustBench: a standardized adversarial robustness benchmark [84.50044645539305]
ロバストネスのベンチマークにおける主な課題は、その評価がしばしばエラーを起こし、ロバストネス過大評価につながることである。
我々は,白箱攻撃と黒箱攻撃のアンサンブルであるAutoAttackを用いて,敵対的ロバスト性を評価する。
分散シフト,キャリブレーション,アウト・オブ・ディストリビューション検出,フェアネス,プライバシリーク,スムースネス,転送性に対するロバスト性の影響を解析した。
論文 参考訳(メタデータ) (2020-10-19T17:06:18Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - Are L2 adversarial examples intrinsically different? [14.77179227968466]
理論的解析により、本質的に逆例と正規入力を区別できる性質を解明する。
我々は,MNISTで最大99%,CIFARで89%,ImageNetサブセットで最大87%の分類精度を,$L$攻撃に対して達成した。
論文 参考訳(メタデータ) (2020-02-28T03:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。