論文の概要: Time-Efficient Evaluation and Enhancement of Adversarial Robustness in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2512.20893v1
- Date: Wed, 24 Dec 2025 02:33:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.656228
- Title: Time-Efficient Evaluation and Enhancement of Adversarial Robustness in Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークの時間効率評価と対向ロバスト性向上
- Authors: Runqi Lin,
- Abstract要約: この論文は、ディープニューラルネットワーク(DNN)における対向ロバスト性の評価と強化のための時間効率のよい方法を提供することを目的としている。
両チームの既存のアプローチは計算集約的であり、大規模モデルの適用性を制限している。
- 参考スコア(独自算出の注目度): 5.922488908114023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With deep neural networks (DNNs) increasingly embedded in modern society, ensuring their safety has become a critical and urgent issue. In response, substantial efforts have been dedicated to the red-blue adversarial framework, where the red team focuses on identifying vulnerabilities in DNNs and the blue team on mitigating them. However, existing approaches from both teams remain computationally intensive, constraining their applicability to large-scale models. To overcome this limitation, this thesis endeavours to provide time-efficient methods for the evaluation and enhancement of adversarial robustness in DNNs.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)が現代社会にますます組み込まれているため、安全性が重要かつ緊急の問題になっている。
これに対して、レッドチームはDNNの脆弱性の特定と、ブルーチームの緩和に重点を置いている。
しかしながら、両チームの既存のアプローチは計算集約的であり、大規模モデルの適用性を制限している。
この制限を克服するために、この論文は、DNNにおける敵の堅牢性の評価と強化のための時間効率のよい方法を提供することを目的としている。
関連論文リスト
- Boosting the Robustness-Accuracy Trade-off of SNNs by Robust Temporal Self-Ensemble [7.029504254766399]
Spiking Neural Networks(SNN)は、エネルギー効率と脳にインスパイアされたコンピューティングのための有望な方向性を提供する。
本研究は,対人学習における時間構造の重要性を強調し,強靭なスパイクモデル構築のための原則的基盤を提供する。
論文 参考訳(メタデータ) (2025-08-15T07:34:06Z) - Proxy Target: Bridging the Gap Between Discrete Spiking Neural Networks and Continuous Control [59.65431931190187]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上で低レイテンシかつエネルギー効率の意思決定を提供する。
連続制御のためのほとんどの連続制御アルゴリズムは、人工ニューラルネットワーク(ANN)のために設計されている。
このミスマッチはSNNのトレーニングを不安定にし、性能を劣化させる。
離散SNNと連続制御アルゴリズムのギャップを埋める新しいプロキシターゲットフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T03:08:03Z) - Achieving Network Resilience through Graph Neural Network-enabled Deep Reinforcement Learning [64.20847540439318]
深層強化学習(DRL)は多くの重要な通信ネットワークのタスクで広く利用されている。
グラフニューラルネットワーク(GNN)とDRLを組み合わせて、GNNを用いてネットワークの非構造的特徴を抽出する研究もある。
本稿では,GNNとDRLを組み合わせたレジリエントネットワークの構築について検討する。
論文 参考訳(メタデータ) (2025-01-19T15:22:17Z) - Understanding the Robustness of Graph Neural Networks against Adversarial Attacks [14.89001880258583]
近年の研究では、グラフニューラルネットワーク(GNN)が敵の攻撃に弱いことが示されている。
この脆弱性により、堅牢なGNNの設計に注目が集まっている。
本研究は,GNNの対角的ロバスト性に関する大規模な研究である。
論文 参考訳(メタデータ) (2024-06-20T01:24:18Z) - VNN: Verification-Friendly Neural Networks with Hard Robustness Guarantees [3.208888890455612]
VNN(Verification-Friendly Neural Networks)を生成するための新しいフレームワークを提案する。
本稿では,予測性能と検証親和性とのバランスをとるための学習後最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-15T12:39:27Z) - Attention-Based Real-Time Defenses for Physical Adversarial Attacks in
Vision Applications [58.06882713631082]
ディープニューラルネットワークはコンピュータビジョンタスクにおいて優れたパフォーマンスを示すが、現実の敵攻撃に対する脆弱性は深刻なセキュリティ上の懸念を引き起こす。
本稿では、敵チャネルの注意力を利用して、浅いネットワーク層における悪意のある物体を素早く識別・追跡する、効果的な注意に基づく防御機構を提案する。
また、効率的な多フレーム防御フレームワークを導入し、防御性能と計算コストの両方を評価することを目的とした広範な実験を通じて、その有効性を検証した。
論文 参考訳(メタデータ) (2023-11-19T00:47:17Z) - Improving Corruption and Adversarial Robustness by Enhancing Weak
Subnets [91.9346332103637]
本研究では,頑健性を向上させるために,トレーニング中の弱さを明確に識別し,強化する新しいロバストトレーニング手法を提案する。
具体的には、特に弱いものを見つけるための探索アルゴリズムを開発し、全ネットワークからの知識蒸留を通じてそれらを明示的に強化することを提案する。
EWSは、破損した画像に対するロバスト性を大幅に改善し、クリーンなデータの正確性も向上することを示す。
論文 参考訳(メタデータ) (2022-01-30T09:36:19Z) - Advancing Deep Residual Learning by Solving the Crux of Degradation in
Spiking Neural Networks [21.26300397341615]
残留学習とショートカットは、ディープニューラルネットワークをトレーニングするための重要なアプローチとして証明されている。
本稿では,SNNの深度を大幅に拡張できる新しい残差ブロックを提案する。
論文 参考訳(メタデータ) (2021-12-09T06:29:00Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects
of Discrete Input Encoding and Non-Linear Activations [9.092733355328251]
スパイキングニューラルネットワーク(SNN)は、敵対的攻撃に対する固有の堅牢性の候補である。
本研究では、勾配に基づく攻撃によるSNNの対向精度が、非スパイク攻撃よりも高いことを示す。
論文 参考訳(メタデータ) (2020-03-23T17:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。