論文の概要: The Dilemma Between Data Transformations and Adversarial Robustness for
Time Series Application Systems
- arxiv url: http://arxiv.org/abs/2006.10885v2
- Date: Thu, 9 Dec 2021 22:37:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 13:16:19.192457
- Title: The Dilemma Between Data Transformations and Adversarial Robustness for
Time Series Application Systems
- Title(参考訳): 時系列アプリケーションシステムにおけるデータ変換と逆ロバスト性とのジレンマ
- Authors: Sheila Alemany, Niki Pissinou
- Abstract要約: アドリシャルな例、あるいは攻撃者が生成したほぼ区別できない入力は、機械学習の精度を著しく低下させる。
この研究は、データ変換が、リカレントニューラルネットワーク上で効果的な敵サンプルを作成する敵の能力にどのように影響するかを考察する。
データ変換技術は、データセットの本質的な次元を近似した場合のみ、逆例に対する脆弱性を低減する。
- 参考スコア(独自算出の注目度): 1.2056495277232115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples, or nearly indistinguishable inputs created by an
attacker, significantly reduce machine learning accuracy. Theoretical evidence
has shown that the high intrinsic dimensionality of datasets facilitates an
adversary's ability to develop effective adversarial examples in classification
models. Adjacently, the presentation of data to a learning model impacts its
performance. For example, we have seen this through dimensionality reduction
techniques used to aid with the generalization of features in machine learning
applications. Thus, data transformation techniques go hand-in-hand with
state-of-the-art learning models in decision-making applications such as
intelligent medical or military systems. With this work, we explore how data
transformations techniques such as feature selection, dimensionality reduction,
or trend extraction techniques may impact an adversary's ability to create
effective adversarial samples on a recurrent neural network. Specifically, we
analyze it from the perspective of the data manifold and the presentation of
its intrinsic features. Our evaluation empirically shows that feature selection
and trend extraction techniques may increase the RNN's vulnerability. A data
transformation technique reduces the vulnerability to adversarial examples only
if it approximates the dataset's intrinsic dimension, minimizes codimension,
and maintains higher manifold coverage.
- Abstract(参考訳): 敵の例、あるいは攻撃者が生成したほぼ区別できない入力は、機械学習の精度を著しく低下させる。
理論的証拠は、データセットの内在的な高次元性は、分類モデルにおいて効果的な敵例を開発する敵の能力を促進することを示している。
学習モデルへのデータの提示は、そのパフォーマンスに影響を与える。
例えば、機械学習アプリケーションにおける特徴の一般化を支援するために使われる次元削減技術を通してこれを見てきた。
このように、データ変換技術は、インテリジェント医療や軍事システムといった意思決定アプリケーションにおける最先端の学習モデルと密接に連携する。
本研究では,特徴選択や次元減少,トレンド抽出といったデータ変換技術が,繰り返しニューラルネットワーク上で効果的な対向サンプルを作成する敵の能力にどのように影響するかを検討する。
具体的には、データ多様体の観点から分析し、本質的な特徴を提示する。
我々の評価は,特徴選択と傾向抽出技術がRNNの脆弱性を増加させる可能性を実証的に示している。
データ変換技術は、データセットの内在次元を近似し、余次元を最小化し、より高い多様体カバレッジを維持する場合に限り、逆例に対する脆弱性を低減する。
関連論文リスト
- Machine unlearning through fine-grained model parameters perturbation [29.1171391789129]
そこで本研究では,不エクササイズマシンの非学習戦略であるTop-KパラメータとRandom-kパラメータの微粒化を提案する。
また,機械学習の有効性を評価する上での課題にも取り組む。
論文 参考訳(メタデータ) (2024-01-09T07:14:45Z) - Uncovering the Hidden Cost of Model Compression [49.937417635812025]
視覚プロンプティング (VP) はコンピュータビジョンにおいて重要な伝達学習手法として登場した。
モデル間隔は視覚的プロンプトベース転送の性能に悪影響を及ぼす。
以上の結果から,疎度が下流視覚刺激モデルの校正に及ぼす影響が示唆された。
論文 参考訳(メタデータ) (2023-08-29T01:47:49Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - Efficient Multidimensional Functional Data Analysis Using Marginal
Product Basis Systems [2.4554686192257424]
多次元関数データのサンプルから連続表現を学習するためのフレームワークを提案する。
本研究では, テンソル分解により, 得られた推定問題を効率的に解けることを示す。
我々は、ニューロイメージングにおける真のデータ応用で締めくくっている。
論文 参考訳(メタデータ) (2021-07-30T16:02:15Z) - Gradient-based Data Subversion Attack Against Binary Classifiers [9.414651358362391]
本研究では,攻撃者がラベルのラベルに毒を盛り,システムの機能を損なうようなラベル汚染攻撃に焦点を当てる。
我々は、予測ラベルに対する微分可能凸損失関数の勾配をウォームスタートとして利用し、汚染するデータインスタンスの集合を見つけるための異なる戦略を定式化する。
本実験は,提案手法がベースラインより優れ,計算効率が高いことを示す。
論文 参考訳(メタデータ) (2021-05-31T09:04:32Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - The Utility of Feature Reuse: Transfer Learning in Data-Starved Regimes [6.419457653976053]
データ・スターベド・レシエーションを持つドメインに対する転送学習のユースケースについて述べる。
畳み込み特徴抽出と微調整の有効性を評価する。
我々はトランスファーラーニングがCNNアーキテクチャの性能を向上させることを結論付けている。
論文 参考訳(メタデータ) (2020-02-29T18:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。