論文の概要: Adversarial Robustness of Deep Convolutional Candlestick Learner
- arxiv url: http://arxiv.org/abs/2006.03686v1
- Date: Fri, 29 May 2020 02:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 23:12:51.740138
- Title: Adversarial Robustness of Deep Convolutional Candlestick Learner
- Title(参考訳): 深部畳み込みキャンドルスティック学習者の対向ロバスト性
- Authors: Jun-Hao Chen and Samuel Yen-Chi Chen and Yun-Cheng Tsai and
Chih-Shiang Shur
- Abstract要約: 本稿では、摂動例を構築し、これらの例を用いてモデルのロバスト性を高める方法を提案する。
本アルゴリズムは,入力データの摂動に関して,ロウソクスティック分類のためのDLモデルの安定性を向上させる。
- 参考スコア(独自算出の注目度): 2.299476124054149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) has been applied extensively in a wide range of fields.
However, it has been shown that DL models are susceptible to a certain kinds of
perturbations called \emph{adversarial attacks}. To fully unlock the power of
DL in critical fields such as financial trading, it is necessary to address
such issues. In this paper, we present a method of constructing perturbed
examples and use these examples to boost the robustness of the model. Our
algorithm increases the stability of DL models for candlestick classification
with respect to perturbations in the input data.
- Abstract(参考訳): ディープラーニング(DL)は幅広い分野に広く応用されている。
しかし、DLモデルは「emph{adversarial attack}」と呼ばれるある種の摂動の影響を受けやすいことが示されている。
金融取引などの重要な分野におけるdlの力を完全に解き放つためには、その課題に取り組む必要がある。
本稿では,摂動例を構築し,モデルのロバスト性を高めるためにこれらの例を用いる手法を提案する。
本アルゴリズムは, 入力データの摂動に対するキャンドルスティック分類のためのDLモデルの安定性を向上させる。
関連論文リスト
- Low-rank finetuning for LLMs: A fairness perspective [54.13240282850982]
低ランク近似技術は、微調整された大規模言語モデルのデファクトスタンダードとなっている。
本稿では,これらの手法が初期訓練済みデータ分布から微調整データセットのシフトを捉える上での有効性について検討する。
低ランク微調整は好ましくない偏見や有害な振る舞いを必然的に保存することを示す。
論文 参考訳(メタデータ) (2024-05-28T20:43:53Z) - Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - Latent Diffusion Counterfactual Explanations [28.574246724214962]
潜在拡散対実説明(LDCE)について紹介する。
LDCEは、最近のクラスまたはテキスト条件の潜在拡散モデルの能力を利用して、対実生成を高速化する。
LDCEがモデルエラーに対する洞察を提供し、ブラックボックスモデル行動の理解を深める方法を示す。
論文 参考訳(メタデータ) (2023-10-10T14:42:34Z) - On the Embedding Collapse when Scaling up Recommendation Models [53.66285358088788]
埋め込み崩壊現象をスケーラビリティの阻害とみなし、埋め込み行列は低次元の部分空間を占有する傾向にある。
本稿では,組込み集合固有の相互作用モジュールを組み込んで,多様性を持つ組込み集合を学習する,単純かつ効果的な組込み設計を提案する。
論文 参考訳(メタデータ) (2023-10-06T17:50:38Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Using Gradient to Boost the Generalization Performance of Deep Learning
Models for Fluid Dynamics [0.0]
本稿では,Deep Learningの一般化能力を高めるための新しい研究について述べる。
我々の戦略は、DLネットワークのより良い一般化に向けた良い結果を示している。
論文 参考訳(メタデータ) (2022-10-09T10:20:09Z) - Distilling Model Failures as Directions in Latent Space [87.30726685335098]
本稿では,モデルの故障モードを自動的に抽出するスケーラブルな方法を提案する。
線形分類器を用いて一貫したエラーパターンを識別し、これらの障害モードを特徴空間内の方向として自然な表現を誘導する。
このフレームワークにより、トレーニングデータセット内の課題のあるサブポピュレーションを発見し、自動的にキャプションし、これらのサブポピュレーションにおけるモデルのパフォーマンスを改善することができることを示す。
論文 参考訳(メタデータ) (2022-06-29T16:35:24Z) - Virtual Data Augmentation: A Robust and General Framework for
Fine-tuning Pre-trained Models [51.46732511844122]
強力な事前訓練型言語モデル(PLM)は、小さな摂動や意図的な攻撃によって騙されることがある。
VDA(Virtual Data Augmentation)は,PLMを高度に微調整するための一般的なフレームワークである。
本手法は, PLMの堅牢性を向上し, 敵攻撃時の性能劣化を軽減する。
論文 参考訳(メタデータ) (2021-09-13T09:15:28Z) - Thinkback: Task-SpecificOut-of-Distribution Detection [11.564082628014638]
本稿では,Deep Learningモデルに適した分布外検出問題を定式化する方法を提案する。
本手法では, トレーニングデータに対する微調整処理は必要としないが, アウト・オブ・ディストリビューション検出技術よりもはるかに精度が高い。
論文 参考訳(メタデータ) (2021-07-13T09:34:26Z) - Explaining Adversarial Vulnerability with a Data Sparsity Hypothesis [0.0]
深層学習モデルは 敵対的な攻撃を受けやすい
本稿では,そのような決定境界を学習するためのDLモデルのトレーニングフレームワークを開発する。
我々は,このトレーニングフレームワークを用いて訓練したモデルの,よく知られた敵攻撃に対する敵の堅牢性を測定する。
論文 参考訳(メタデータ) (2021-03-01T06:04:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。