論文の概要: Adversarial Robustness for Tabular Data through Cost and Utility
Awareness
- arxiv url: http://arxiv.org/abs/2208.13058v1
- Date: Sat, 27 Aug 2022 17:37:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:38:27.163593
- Title: Adversarial Robustness for Tabular Data through Cost and Utility
Awareness
- Title(参考訳): コストと実用性を考慮した語彙データの対向ロバスト性
- Authors: Klim Kireev, Bogdan Kulynych, Carmela Troncoso
- Abstract要約: 本稿では,攻撃者の敵の能力や制約に合わせて,新たなコストと実用性を考慮した脅威モデルを提案する。
本手法は,敵対的事例が経済的・社会的意味を持つアプリケーションに対応する3つのデータセットに対して有効であることを示す。
- 参考スコア(独自算出の注目度): 5.553963083111226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many machine learning problems use data in the tabular domains. Adversarial
examples can be especially damaging for these applications. Yet, existing works
on adversarial robustness mainly focus on machine-learning models in the image
and text domains. We argue that due to the differences between tabular data and
images or text, existing threat models are inappropriate for tabular domains.
These models do not capture that cost can be more important than
imperceptibility, nor that the adversary could ascribe different value to the
utility obtained from deploying different adversarial examples. We show that
due to these differences the attack and defence methods used for images and
text cannot be directly applied to the tabular setup. We address these issues
by proposing new cost and utility-aware threat models tailored to the
adversarial capabilities and constraints of attackers targeting tabular
domains. We introduce a framework that enables us to design attack and defence
mechanisms which result in models protected against cost or utility-aware
adversaries, e.g., adversaries constrained by a certain dollar budget. We show
that our approach is effective on three tabular datasets corresponding to
applications for which adversarial examples can have economic and social
implications.
- Abstract(参考訳): 多くの機械学習問題は表領域のデータを使用する。
敵対的な例は、これらのアプリケーションに特に被害を与える可能性がある。
しかし、既存の敵対的堅牢性の研究は、主に画像とテキスト領域における機械学習モデルに焦点を当てている。
表データと画像やテキストの違いから、既存の脅威モデルは表ドメインには不適切であると主張する。
これらのモデルは、非知覚性よりもコストが重要になり得ることを捉えておらず、また、敵が異なる敵の例を配置することによって得られるユーティリティに異なる価値を割り当てることもできない。
これらの違いから,画像やテキストに使用する攻撃手法や防御手法を表形式で直接適用することは不可能であることを示す。
我々は,テーブル型ドメインを対象とする攻撃者の敵対的能力と制約に合わせて,新たなコストとユーティリティアウェアの脅威モデルを提案することで,これらの問題に対処する。
我々は、コストや実用性に配慮した敵(例えば、特定のドル予算で制約された敵)に対して保護されたモデルをもたらす攻撃・防御機構を設計できるフレームワークを導入する。
本手法は,実例が経済的・社会的意味を持つアプリケーションに対応する3つの表型データセットにおいて有効であることを示す。
関連論文リスト
- EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Constrained Adaptive Attacks: Realistic Evaluation of Adversarial
Examples and Robust Training of Deep Neural Networks for Tabular Data [19.579837693614326]
本稿では,制約付きディープラーニングモデルに対する最初の効率的な回避攻撃であるCAAを提案する。
CAAを活用して、クレジットスコア、フィッシング、ボットネット攻撃検出という3つの一般的なユースケースにわたる、ディープタブモデルのベンチマークを構築します。
論文 参考訳(メタデータ) (2023-11-08T07:35:28Z) - Exploring Robust Features for Improving Adversarial Robustness [11.935612873688122]
本研究では, 対向的摂動の影響を受けない頑健な特徴を探索し, モデルの対向的強靭性を改善する。
具体的には、ロバストでない特徴やドメイン固有の特徴からロバストな特徴を分離する機能障害モデルを提案する。
トレーニング済みのドメイン識別器は、クリーンな画像や敵の例から、ほぼ完璧にドメイン固有の特徴を識別することができる。
論文 参考訳(メタデータ) (2023-09-09T00:30:04Z) - In and Out-of-Domain Text Adversarial Robustness via Label Smoothing [64.66809713499576]
多様なNLPタスクの基本モデルにおいて,ラベルの平滑化戦略によって提供される対角的ロバスト性について検討する。
実験の結果,ラベルのスムース化は,BERTなどの事前学習モデルにおいて,様々な攻撃に対して,逆方向の堅牢性を大幅に向上させることがわかった。
また,予測信頼度とロバスト性の関係を解析し,ラベルの平滑化が敵の例に対する過度な信頼誤差を減少させることを示した。
論文 参考訳(メタデータ) (2022-12-20T14:06:50Z) - A Framework for Understanding Model Extraction Attack and Defense [48.421636548746704]
我々は,モデルユーティリティとユーザとのトレードオフと,敵の視点によるプライバシについて検討する。
我々は,このようなトレードオフを定量化し,その理論的特性を分析し,最適な敵攻撃・防衛戦略を理解するための最適化問題を開発する。
論文 参考訳(メタデータ) (2022-06-23T05:24:52Z) - A Unified Framework for Adversarial Attack and Defense in Constrained
Feature Space [13.096022606256973]
本稿では、与えられたドメイン制約を満たす実行可能な逆例を生成するための統一的なフレームワークを提案する。
我々のフレームワークは、制約された敵攻撃の研究の出発点を形成し、研究が活用できる関連するベースラインとデータセットを提供します。
論文 参考訳(メタデータ) (2021-12-02T12:05:27Z) - Towards Variable-Length Textual Adversarial Attacks [68.27995111870712]
データの離散性のため、自然言語処理タスクに対してテキストによる敵意攻撃を行うことは非自明である。
本稿では,可変長テキスト対比攻撃(VL-Attack)を提案する。
本手法は、iwslt14ドイツ語英訳で3,18$ bleuスコアを達成でき、ベースラインモデルより1.47$改善できる。
論文 参考訳(メタデータ) (2021-04-16T14:37:27Z) - Adversarial Robustness with Non-uniform Perturbations [3.804240190982695]
先行研究は主に、非知覚性の要件を維持するために、機能間で小さな均一なノルムバウンドの摂動で敵対的な例を作ることに重点を置いている。
我々のアプローチは、非一様摂動が現実的な対角的例をより正確に表現する他の領域に適応することができる。
論文 参考訳(メタデータ) (2021-02-24T00:54:43Z) - Universal Adversarial Perturbations for Malware [15.748648955898528]
universal adversarial perturbation (uaps) は入力空間全体に一般化するノイズパターンを特定する。
マルウェア分類におけるUAPの課題と強みについて検討する。
本稿では,問題空間変換に基づく知識を用いた逆トレーニングに基づく緩和を提案する。
論文 参考訳(メタデータ) (2021-02-12T20:06:10Z) - AdvMS: A Multi-source Multi-cost Defense Against Adversarial Attacks [81.45930614122925]
ディープニューラルネットワークは、マルウェア検出や自動運転車など、多くのセキュリティクリティカルな領域で急速に普及している。
従来の防衛手法は有望だが、単一ソースの単一コストの性質によってほとんど制限されている。
本稿では,AdvMSのマルチソース特性が性能評価問題を緩和し,多コスト特性が柔軟性と調整可能なコストの組み合わせによるロバスト性の向上を可能にすることを示す。
論文 参考訳(メタデータ) (2020-02-19T20:46:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。