論文の概要: Having Second Thoughts? Let's hear it
- arxiv url: http://arxiv.org/abs/2311.15356v2
- Date: Fri, 31 May 2024 12:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 20:21:48.321659
- Title: Having Second Thoughts? Let's hear it
- Title(参考訳): 第二の考えを持っているか、聞いてみよう。
- Authors: Jung H. Lee, Sujith Vijayan,
- Abstract要約: ディープラーニングモデルは、低次知覚領域から高次認知領域へのボトムアップ信号経路を緩やかに模倣する。
訓練後、DLモデルはいくつかのドメイン固有のタスクにおいて人間より優れているが、意思決定プロセスは容易に破壊されることが知られている。
本稿では,DLモデルをより堅牢にできるかどうかを,選択的注意と検査を模倣した認証プロセスを提案する。
- 参考スコア(独自算出の注目度): 0.36832029288386137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models loosely mimic bottom-up signal pathways from low-order sensory areas to high-order cognitive areas. After training, DL models can outperform humans on some domain-specific tasks, but their decision-making process has been known to be easily disrupted. Since the human brain consists of multiple functional areas highly connected to one another and relies on intricate interplays between bottom-up and top-down (from high-order to low-order areas) processing, we hypothesize that incorporating top-down signal processing may make DL models more robust. To address this hypothesis, we propose a certification process mimicking selective attention and test if it could make DL models more robust. Our empirical evaluations suggest that this newly proposed certification can improve DL models' accuracy and help us build safety measures to alleviate their vulnerabilities with both artificial and natural adversarial examples.
- Abstract(参考訳): ディープラーニングモデルは、低次知覚領域から高次認知領域へのボトムアップ信号経路を緩やかに模倣する。
訓練後、DLモデルはいくつかのドメイン固有のタスクにおいて人間より優れているが、意思決定プロセスは容易に破壊されることが知られている。
人間の脳は複数の機能領域から構成されており、ボトムアップとトップダウン(高次から低次まで)の複雑な相互作用に依存しているため、トップダウン信号処理を取り入れることで、DLモデルをより堅牢にすることができると仮定する。
この仮説に対処するため,本論文では,DLモデルをより堅牢にできるかどうか,選択的注意を模倣した認証プロセスを提案する。
実験的な評価から,新たに提案された認証により,DLモデルの精度が向上し,その脆弱性を人為的,自然的両面的な例で軽減する安全対策が構築できることが示唆された。
関連論文リスト
- Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - Towards a robust and reliable deep learning approach for detection of
compact binary mergers in gravitational wave data [0.0]
我々は、段階的に深層学習モデルを開発し、その堅牢性と信頼性の向上に取り組みます。
我々はGAN(Generative Adversarial Network)を含む新しいフレームワークでモデルを再訓練する。
絶対ロバスト性は事実上達成できないが、そのような訓練によって得られるいくつかの根本的な改善を実証する。
論文 参考訳(メタデータ) (2023-06-20T18:00:05Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - A Study on FGSM Adversarial Training for Neural Retrieval [3.2634122554914]
ニューラル検索モデルは、項ベースの手法と比較して、ここ数年で顕著な効果を得た。
しかし、これらのモデルは、タイプミスや配布シフトに直面したり、悪意のある攻撃に対して脆弱である可能性がある。
我々は,FGSM(Fast Gradient Sign Method)という,最も単純な逆行訓練手法の1つが,第1段階のローダの堅牢性と有効性を向上させることができることを示した。
論文 参考訳(メタデータ) (2023-01-25T13:28:54Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Maximum Likelihood Distillation for Robust Modulation Classification [50.51144496609274]
我々は、より堅牢なAMCシステムを構築するために、知識蒸留のアイデアと敵の訓練に基づいて構築する。
オフライン環境でのAMC問題を解消し,より優れたトレーニングラベルを生成するためのMaximum Likelihood関数を提案する。
論文 参考訳(メタデータ) (2022-11-01T21:06:11Z) - Explicit Occlusion Reasoning for Multi-person 3D Human Pose Estimation [33.86986028882488]
咬合は, 咬合者の形状, 外観, 位置の変動が大きいため, 単眼多面体3次元ポーズ推定において大きな脅威となる。
既存のメソッドは、ポーズ先/制約、データ拡張、暗黙の推論でオクルージョンを処理しようとする。
本研究では、ボトムアップ型多人数ポーズ推定を大幅に改善する、このプロセスを明示的にモデル化する手法を開発した。
論文 参考訳(メタデータ) (2022-07-29T22:12:50Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Towards Training Reproducible Deep Learning Models [26.547756923322126]
ディープラーニング(DL)モデルは、ソフトウェアにおけるランダム性やハードウェアにおける非決定性といった問題により、再現が困難である。
本稿では,再現可能なDLモデルを学習するための体系的なアプローチを提案する。
ケーススタディでは,6つのオープンソースと1つの商用DLモデルを再現することができた。
論文 参考訳(メタデータ) (2022-02-04T18:14:39Z) - On the Security Risks of AutoML [38.03918108363182]
Neural Architecture Search(NAS)は、与えられたタスクに適したモデルを自動的に検索する、新たな機械学習パラダイムである。
手動で設計したモデルと比較すると、NAS生成モデルは様々な悪意ある攻撃に対して大きな脆弱性を被る傾向にある。
本稿では,セル深さの増大やスキップ接続の抑制など,このような欠点を軽減するための対策の可能性について論じる。
論文 参考訳(メタデータ) (2021-10-12T14:04:15Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。