論文の概要: Transferable Adversarial Robustness for Categorical Data via Universal
Robust Embeddings
- arxiv url: http://arxiv.org/abs/2306.04064v1
- Date: Tue, 6 Jun 2023 23:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 16:49:26.086243
- Title: Transferable Adversarial Robustness for Categorical Data via Universal
Robust Embeddings
- Title(参考訳): 普遍ロバスト埋め込みによるカテゴリーデータの転送可能逆ロバスト性
- Authors: Klim Kireev, Maksym Andriushchenko, Carmela Troncoso, Nicolas
Flammarion
- Abstract要約: 堅牢性の欠如が詐欺検出、診断、レコメンデーターシステムなどの深刻なリスクをもたらす多くのシナリオがある。
本稿では,グラフデータに対して,逆向きに頑健な深層ネットワークを訓練する手法を提案する。
これらの埋め込みは、敵の訓練を必要とせずに、強化された木や無作為な森林に移動することができる。
- 参考スコア(独自算出の注目度): 25.77898440974957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research on adversarial robustness is primarily focused on image and text
data. Yet, many scenarios in which lack of robustness can result in serious
risks, such as fraud detection, medical diagnosis, or recommender systems often
do not rely on images or text but instead on tabular data. Adversarial
robustness in tabular data poses two serious challenges. First, tabular
datasets often contain categorical features, and therefore cannot be tackled
directly with existing optimization procedures. Second, in the tabular domain,
algorithms that are not based on deep networks are widely used and offer great
performance, but algorithms to enhance robustness are tailored to neural
networks (e.g. adversarial training).
In this paper, we tackle both challenges. We present a method that allows us
to train adversarially robust deep networks for tabular data and to transfer
this robustness to other classifiers via universal robust embeddings tailored
to categorical data. These embeddings, created using a bilevel alternating
minimization framework, can be transferred to boosted trees or random forests
making them robust without the need for adversarial training while preserving
their high accuracy on tabular data. We show that our methods outperform
existing techniques within a practical threat model suitable for tabular data.
- Abstract(参考訳): 敵対的堅牢性の研究は、主に画像とテキストデータに焦点を当てている。
しかし、堅牢性の欠如が詐欺検出、診断、レコメンダシステムといった深刻なリスクをもたらすシナリオの多くは、画像やテキストに頼らず、表形式のデータに頼っていることが多い。
表データの逆の堅牢性は2つの深刻な課題を生じさせる。
まず、表型データセットにはカテゴリ的な特徴がしばしば含まれているため、既存の最適化手順に直接取り組めない。
第二に、表領域では、ディープネットワークをベースとしないアルゴリズムが広く使われ、優れた性能を提供するが、堅牢性を高めるアルゴリズムはニューラルネットワークに適合する(例えば、敵の訓練)。
本稿では,両課題に対処する。
本稿では,表データに対して,逆ロバストな深層ネットワークを訓練し,そのロバスト性をカテゴリデータに合わせたユニバーサルロバスト埋め込みを介して他の分類器に転送する手法を提案する。
これらの埋め込みは、二段階の交互化フレームワークを用いて作成され、木やランダムな森林に移動でき、表層データに高い精度を保ちながら、敵の訓練を必要とせずに堅牢になる。
本手法は,表データに適した実用的脅威モデルにおいて,既存の手法よりも優れていることを示す。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - CAST: Cluster-Aware Self-Training for Tabular Data via Reliable Confidence [0.4999814847776098]
自己学習は、誤った自信によって引き起こされるノイズの多い擬似ラベルに対して脆弱である。
CAST(Cluster-Aware Self-Training)は、既存の自己学習アルゴリズムを無視可能なコストで強化する。
論文 参考訳(メタデータ) (2023-10-10T07:46:54Z) - Generating tabular datasets under differential privacy [0.0]
ディープニューラルネットワークのトレーニングプロセスに差分プライバシー(DP)を導入する。
これにより、結果データの品質とプライバシの間にトレードオフが生じます。
我々は、注意機構を活用する新しいエンドツーエンドモデルを実装している。
論文 参考訳(メタデータ) (2023-08-28T16:35:43Z) - Progressive Feature Upgrade in Semi-supervised Learning on Tabular
Domain [0.0]
最近の半監督的・自己監督的手法は画像領域とテキスト領域において大きな成功を収めている。
異なるデータ型が混在しているため、画像や言語から表データへのドメイン固有の変換を適応するのは容易ではない。
条件付き確率表現と,効率的な機能アップグレードフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-01T22:18:32Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - TabLeak: Tabular Data Leakage in Federated Learning [9.242965489146398]
TabLeakは、表データに対する最初の包括的な再構築攻撃である。
我々は、FedSGDおよびFedAvgトレーニングプロトコルの4つのデータセットに対してTabLeakを評価する。
128の大規模バッチサイズであっても、90%の精度で大量のプライベートデータを抽出する。
論文 参考訳(メタデータ) (2022-10-04T17:55:20Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - Smooth densities and generative modeling with unsupervised random
forests [1.433758865948252]
密度推定器の重要な応用は合成データ生成である。
パラメータ制約を伴わない任意の次元における滑らかな密度を推定するための,教師なしランダム森林に基づく新しい手法を提案する。
提案手法の整合性を証明し,既存の木質密度推定器に対する利点を実証する。
論文 参考訳(メタデータ) (2022-05-19T09:50:25Z) - Unsupervised Robust Domain Adaptation without Source Data [75.85602424699447]
我々は、利用できないターゲットラベルとソースデータのコンテキストにおけるロバストなドメイン適応の問題について研究する。
4つのベンチマークデータセットでテストされたベースラインに対して10%以上の精度で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-03-26T16:42:28Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。