論文の概要: Adversarial Example Detection in Deployed Tree Ensembles
- arxiv url: http://arxiv.org/abs/2206.13083v1
- Date: Mon, 27 Jun 2022 06:59:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 16:43:38.441548
- Title: Adversarial Example Detection in Deployed Tree Ensembles
- Title(参考訳): デプロイツリーアンサンブルにおける逆例検出
- Authors: Laurens Devos, Wannes Meert, Jesse Davis
- Abstract要約: そこで本研究では,木組における対立例を検出するための新しい手法を提案する。
我々のアプローチは任意の付加的なツリーアンサンブルで動作し、別々のモデルをトレーニングする必要がない。
実験により,本手法が現在,樹木アンサンブルの最適逆検出法であることを実証した。
- 参考スコア(独自算出の注目度): 25.204157642042627
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tree ensembles are powerful models that are widely used. However, they are
susceptible to adversarial examples, which are examples that purposely
constructed to elicit a misprediction from the model. This can degrade
performance and erode a user's trust in the model. Typically, approaches try to
alleviate this problem by verifying how robust a learned ensemble is or
robustifying the learning process. We take an alternative approach and attempt
to detect adversarial examples in a post-deployment setting. We present a novel
method for this task that works by analyzing an unseen example's output
configuration, which is the set of predictions made by an ensemble's
constituent trees. Our approach works with any additive tree ensemble and does
not require training a separate model. We evaluate our approach on three
different tree ensemble learners. We empirically show that our method is
currently the best adversarial detection method for tree ensembles.
- Abstract(参考訳): ツリーアンサンブルは広く使われている強力なモデルです。
しかし、それらは、モデルから誤った予測を引き出すために意図的に構築された例である、逆例に影響を受けやすい。
これはパフォーマンスを低下させ、モデルのユーザの信頼を損なう可能性がある。
通常は、学習したアンサンブルがどれほど堅牢であるかを検証するか、あるいは学習プロセスの堅牢化によって、この問題を緩和しようとする。
代替的なアプローチを採り、デプロイ後設定で敵の例を検知しようと試みる。
本稿では,アンサンブルの構成木による予測のセットである,見当たらない例の出力構成を分析することにより,このタスクの新しい手法を提案する。
我々のアプローチは任意の付加的なツリーアンサンブルで動作し、別々のモデルをトレーニングする必要がない。
我々は,3種類の木アンサンブル学習者に対するアプローチを評価する。
本手法は, 現在, ツリーアンサンブルにおける最善の逆検出手法であることを示す。
関連論文リスト
- Scalable Ensemble Diversification for OOD Generalization and Detection [68.8982448081223]
SEDは、ハエのハードトレーニングサンプルを特定し、アンサンブルメンバーにこれらについて意見の一致を奨励する。
モデル間でのペアの相違を解消する既存の方法において,コストのかかる計算を避ける方法を示す。
OODの一般化のために,出力空間(古典的)アンサンブルや重量空間アンサンブル(モデルスープ)など,複数の環境での多様化による大きなメリットを観察する。
論文 参考訳(メタデータ) (2024-09-25T10:30:24Z) - A Unified Approach to Extract Interpretable Rules from Tree Ensembles via Integer Programming [2.1408617023874443]
木アンサンブル法は、教師付き分類と回帰タスクにおいて有効であることが知られている。
我々の研究は、訓練された木アンサンブルから最適化されたルールのリストを抽出することを目的としており、利用者に凝縮された解釈可能なモデルを提供する。
論文 参考訳(メタデータ) (2024-06-30T22:33:47Z) - Tree-based Ensemble Learning for Out-of-distribution Detection [14.464948762955713]
TOOD検出は、単純なが効果的なツリーベースのアウト・オブ・ディストリビューション検出機構である。
私たちのアプローチは、ツリーベースの性質に対して解釈可能で堅牢です。
論文 参考訳(メタデータ) (2024-05-05T21:49:51Z) - Faster Repeated Evasion Attacks in Tree Ensembles [12.852916723600597]
木アンサンブルの逆例は、一貫したが比較的小さな特徴の集合を摂動する傾向があるという事実を活用する。
我々はこれらの特徴を素早く識別し、この知識を用いて敵の例の構築を高速化できることを示します。
論文 参考訳(メタデータ) (2024-02-13T16:44:02Z) - Scalable Whitebox Attacks on Tree-based Models [2.3186641356561646]
本稿では,木アンサンブルモデルに対する新しいホワイトボックス対逆ロバスト性試験手法を提案する。
サンプリングとログデリバティブのトリックを活用することで、提案手法は以前管理不能だったタスクのテストまでスケールアップできる。
論文 参考訳(メタデータ) (2022-03-31T21:36:20Z) - Explaining random forest prediction through diverse rulesets [0.0]
Local Tree eXtractor (LTreeX)は、与えられたテストインスタンスのフォレスト予測を、いくつかの異なるルールで説明することができる。
提案手法は予測性能の点で他の説明可能な手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2022-03-29T12:54:57Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Complex Event Forecasting with Prediction Suffix Trees: Extended
Technical Report [70.7321040534471]
複合イベント認識(CER)システムは、イベントのリアルタイムストリーム上のパターンを"即時"検出する能力によって、過去20年間に人気が高まっている。
このような現象が実際にCERエンジンによって検出される前に、パターンがいつ発生するかを予測する方法が不足している。
複雑なイベント予測の問題に対処しようとする形式的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-01T09:52:31Z) - An Empirical Comparison of Instance Attribution Methods for NLP [62.63504976810927]
本研究は,トレーニングサンプルの重要性に関して,異なるインスタンス属性が一致した度合いを評価する。
単純な検索メソッドは、グラデーションベースの方法によって識別されたものと異なるトレーニングインスタンスを生成する。
論文 参考訳(メタデータ) (2021-04-09T01:03:17Z) - Paired Examples as Indirect Supervision in Latent Decision Models [109.76417071249945]
我々は、ペア化された例を活用して、潜在的な決定を学習するためのより強力な手がかりを提供する方法を紹介します。
DROPデータセット上のニューラルネットワークを用いた合成質問応答の改善に本手法を適用した。
論文 参考訳(メタデータ) (2021-04-05T03:58:30Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。