論文の概要: Adversarial Robustness of Deep Convolutional Candlestick Learner
- arxiv url: http://arxiv.org/abs/2006.03686v1
- Date: Fri, 29 May 2020 02:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 23:12:51.740138
- Title: Adversarial Robustness of Deep Convolutional Candlestick Learner
- Title(参考訳): 深部畳み込みキャンドルスティック学習者の対向ロバスト性
- Authors: Jun-Hao Chen and Samuel Yen-Chi Chen and Yun-Cheng Tsai and
Chih-Shiang Shur
- Abstract要約: 本稿では、摂動例を構築し、これらの例を用いてモデルのロバスト性を高める方法を提案する。
本アルゴリズムは,入力データの摂動に関して,ロウソクスティック分類のためのDLモデルの安定性を向上させる。
- 参考スコア(独自算出の注目度): 2.299476124054149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) has been applied extensively in a wide range of fields.
However, it has been shown that DL models are susceptible to a certain kinds of
perturbations called \emph{adversarial attacks}. To fully unlock the power of
DL in critical fields such as financial trading, it is necessary to address
such issues. In this paper, we present a method of constructing perturbed
examples and use these examples to boost the robustness of the model. Our
algorithm increases the stability of DL models for candlestick classification
with respect to perturbations in the input data.
- Abstract(参考訳): ディープラーニング(DL)は幅広い分野に広く応用されている。
しかし、DLモデルは「emph{adversarial attack}」と呼ばれるある種の摂動の影響を受けやすいことが示されている。
金融取引などの重要な分野におけるdlの力を完全に解き放つためには、その課題に取り組む必要がある。
本稿では,摂動例を構築し,モデルのロバスト性を高めるためにこれらの例を用いる手法を提案する。
本アルゴリズムは, 入力データの摂動に対するキャンドルスティック分類のためのDLモデルの安定性を向上させる。
関連論文リスト
- Multi-Set Inoculation: Assessing Model Robustness Across Multiple
Challenge Sets [48.94926373895036]
本稿では,入力摂動が異なるスケールの言語モデルに与える影響を研究する枠組みを提案する。
一方の摂動への曝露が他の摂動に対するモデルの性能を向上させるか、劣化させるかを検討する。
提案手法は,与えられたデータセットの精度を損なうことなく,異なる摂動に頑健にモデルを訓練することを示す。
論文 参考訳(メタデータ) (2023-11-15T02:59:10Z) - Latent Diffusion Counterfactual Explanations [28.574246724214962]
潜在拡散対実説明(LDCE)について紹介する。
LDCEは、最近のクラスまたはテキスト条件の潜在拡散モデルの能力を利用して、対実生成を高速化する。
LDCEがモデルエラーに対する洞察を提供し、ブラックボックスモデル行動の理解を深める方法を示す。
論文 参考訳(メタデータ) (2023-10-10T14:42:34Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Using Gradient to Boost the Generalization Performance of Deep Learning
Models for Fluid Dynamics [0.0]
本稿では,Deep Learningの一般化能力を高めるための新しい研究について述べる。
我々の戦略は、DLネットワークのより良い一般化に向けた良い結果を示している。
論文 参考訳(メタデータ) (2022-10-09T10:20:09Z) - Distilling Model Failures as Directions in Latent Space [87.30726685335098]
本稿では,モデルの故障モードを自動的に抽出するスケーラブルな方法を提案する。
線形分類器を用いて一貫したエラーパターンを識別し、これらの障害モードを特徴空間内の方向として自然な表現を誘導する。
このフレームワークにより、トレーニングデータセット内の課題のあるサブポピュレーションを発見し、自動的にキャプションし、これらのサブポピュレーションにおけるモデルのパフォーマンスを改善することができることを示す。
論文 参考訳(メタデータ) (2022-06-29T16:35:24Z) - Virtual Data Augmentation: A Robust and General Framework for
Fine-tuning Pre-trained Models [51.46732511844122]
強力な事前訓練型言語モデル(PLM)は、小さな摂動や意図的な攻撃によって騙されることがある。
VDA(Virtual Data Augmentation)は,PLMを高度に微調整するための一般的なフレームワークである。
本手法は, PLMの堅牢性を向上し, 敵攻撃時の性能劣化を軽減する。
論文 参考訳(メタデータ) (2021-09-13T09:15:28Z) - Thinkback: Task-SpecificOut-of-Distribution Detection [11.564082628014638]
本稿では,Deep Learningモデルに適した分布外検出問題を定式化する方法を提案する。
本手法では, トレーニングデータに対する微調整処理は必要としないが, アウト・オブ・ディストリビューション検出技術よりもはるかに精度が高い。
論文 参考訳(メタデータ) (2021-07-13T09:34:26Z) - Explaining Adversarial Vulnerability with a Data Sparsity Hypothesis [0.0]
深層学習モデルは 敵対的な攻撃を受けやすい
本稿では,そのような決定境界を学習するためのDLモデルのトレーニングフレームワークを開発する。
我々は,このトレーニングフレームワークを用いて訓練したモデルの,よく知られた敵攻撃に対する敵の堅牢性を測定する。
論文 参考訳(メタデータ) (2021-03-01T06:04:31Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。