論文の概要: Faster Repeated Evasion Attacks in Tree Ensembles
- arxiv url: http://arxiv.org/abs/2402.08586v1
- Date: Tue, 13 Feb 2024 16:44:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 14:26:54.970842
- Title: Faster Repeated Evasion Attacks in Tree Ensembles
- Title(参考訳): ツリーアンサンブルにおける反復回避攻撃の高速化
- Authors: Lorenzo Cascioli, Laurens Devos, Ond\v{r}ej Ku\v{z}elka, Jesse Davis
- Abstract要約: 木アンサンブルの逆例は、一貫したが比較的小さな特徴の集合を摂動する傾向があるという事実を活用する。
我々はこれらの特徴を素早く識別し、この知識を用いて敵の例の構築を高速化できることを示します。
- 参考スコア(独自算出の注目度): 12.852916723600597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tree ensembles are one of the most widely used model classes. However, these
models are susceptible to adversarial examples, i.e., slightly perturbed
examples that elicit a misprediction. There has been significant research on
designing approaches to construct such examples for tree ensembles. But this is
a computationally challenging problem that often must be solved a large number
of times (e.g., for all examples in a training set). This is compounded by the
fact that current approaches attempt to find such examples from scratch. In
contrast, we exploit the fact that multiple similar problems are being solved.
Specifically, our approach exploits the insight that adversarial examples for
tree ensembles tend to perturb a consistent but relatively small set of
features. We show that we can quickly identify this set of features and use
this knowledge to speedup constructing adversarial examples.
- Abstract(参考訳): ツリーアンサンブルは最も広く使われているモデルクラスの一つである。
しかし、これらのモデルは敵対的な例、すなわち、誤解を引き起こすわずかに摂動した例に影響を受けやすい。
樹木アンサンブルのこのような例を構築するための設計手法に関する研究が盛んである。
しかし、これは計算的に難しい問題であり、しばしば何度も解かなければならない(例:トレーニングセットのすべての例)。
これは、現在のアプローチがこのような例をスクラッチから探そうとしているという事実によって複合化されている。
対照的に、我々は複数の同様の問題が解決されているという事実を利用する。
具体的には,樹木のアンサンブルに対する敵対的な例は,一貫したが比較的小さな特徴を摂動する傾向にあるという知見を利用する。
我々はこれらの特徴を素早く識別し、この知識を用いて敵の例の構築を高速化できることを示します。
関連論文リスト
- Structured Prompting: Scaling In-Context Learning to 1,000 Examples [78.41281805608081]
長さ制限を破り、文脈内学習を数千の例に拡張する構造化プロンプトを導入する。
具体的には、デモ例は、適切に設計された位置埋め込みで別々にエンコードされ、その後、再スケールされた注意機構を使用してテスト例に共同で出席する。
論文 参考訳(メタデータ) (2022-12-13T16:31:21Z) - Adversarial Example Detection in Deployed Tree Ensembles [25.204157642042627]
そこで本研究では,木組における対立例を検出するための新しい手法を提案する。
我々のアプローチは任意の付加的なツリーアンサンブルで動作し、別々のモデルをトレーニングする必要がない。
実験により,本手法が現在,樹木アンサンブルの最適逆検出法であることを実証した。
論文 参考訳(メタデータ) (2022-06-27T06:59:00Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - A Frequency Perspective of Adversarial Robustness [72.48178241090149]
理論的および経験的知見を参考に,周波数に基づく対向例の理解について述べる。
分析の結果,逆転例は高周波でも低周波成分でもないが,単にデータセット依存であることがわかった。
本稿では、一般に観測される精度対ロバスト性トレードオフの周波数に基づく説明法を提案する。
論文 参考訳(メタデータ) (2021-10-26T19:12:34Z) - Adversarial Robustness: What fools you makes you stronger [1.14219428942199]
本研究では,PAC-ラーニングモデルと等価クエリ-ラーニングモデルのバージョンとの間で,サンプルの複雑さを指数関数的に分離することを証明する。
この分離は、敵対的堅牢性に興味深い意味を持つことを示す。
攻撃者の存在下では、確実に堅牢なモデルを計算する適応防御を設計するビジョンを探求する。
論文 参考訳(メタデータ) (2021-02-10T15:00:24Z) - An Efficient Adversarial Attack for Tree Ensembles [91.05779257472675]
傾斜促進決定木(DT)や無作為林(RF)などの木に基づくアンサンブルに対する敵対的攻撃
提案手法は,従来のMILP (Mixed-integer linear programming) よりも数千倍高速であることを示す。
私たちのコードはhttps://chong-z/tree-ensemble- attackで利用可能です。
論文 参考訳(メタデータ) (2020-10-22T10:59:49Z) - Robust Estimation of Tree Structured Ising Models [20.224160348675422]
我々は、異なる確率変数の符号が、おそらく不等で未知の確率で独立に反転するときに、イジングモデルを学習するタスクを考える。
しかし, この不同一性は, 葉ノードが近傍と位置を交換して形成する小さな同値類に限られる。
論文 参考訳(メタデータ) (2020-06-10T01:32:45Z) - More Bang for Your Buck: Natural Perturbation for Robust Question
Answering [49.83269677507831]
全く新しい例のトレーニングセットを構築するための標準アプローチの代替案を提案する。
私たちのアプローチは、まず種子のサンプルを集め、次に人間主導の自然摂動を適用します。
自然摂動が作成に適度に安価である場合、モデルを用いたモデルのトレーニングがより効果的であることに気付きました。
論文 参考訳(メタデータ) (2020-04-09T23:12:39Z) - Verifying Tree Ensembles by Reasoning about Potential Instances [25.204157642042627]
本稿では,問題の簡易化を問う質問に対して,入力空間の一部を具現化できる戦略を提案する。
次に、インクリメンタルで、常に答えを返すことのできる、分割と征服のアプローチに従います。
このアプローチの有用性は、さまざまなユースケースのセットで示されています。
論文 参考訳(メタデータ) (2020-01-31T15:31:23Z) - Defensive Few-shot Learning [77.82113573388133]
本稿では,防御的数発学習という新たな課題について検討する。
敵の攻撃に対して頑丈な数発のモデルを学習することを目的としている。
提案したフレームワークは、既存の数発のモデルを敵攻撃に対して効果的に堅牢にすることができる。
論文 参考訳(メタデータ) (2019-11-16T05:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。