論文の概要: NeuroShield: A Neuro-Symbolic Framework for Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2601.13162v1
- Date: Mon, 19 Jan 2026 15:39:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.957082
- Title: NeuroShield: A Neuro-Symbolic Framework for Adversarial Robustness
- Title(参考訳): NeuroShield: 対向性ロバスト性のためのニューロシンボリックフレームワーク
- Authors: Ali Shafiee Sarvestani, Jason Schmidt, Arman Roohi,
- Abstract要約: アドリヤ脆弱性と解釈可能性の欠如は、ディープニューラルネットワークの重要な制限である。
本稿では,ニューラルネットワークに象徴的なルール管理を統合する,ニューロシンボリックなフレームワークであるDesignIIを紹介する。
- 参考スコア(独自算出の注目度): 2.3049380625910945
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial vulnerability and lack of interpretability are critical limitations of deep neural networks, especially in safety-sensitive settings such as autonomous driving. We introduce \DesignII, a neuro-symbolic framework that integrates symbolic rule supervision into neural networks to enhance both adversarial robustness and explainability. Domain knowledge is encoded as logical constraints over appearance attributes such as shape and color, and enforced through semantic and symbolic logic losses applied during training. Using the GTSRB dataset, we evaluate robustness against FGSM and PGD attacks at a standard $\ell_\infty$ perturbation budget of $\varepsilon = 8/255$. Relative to clean training, standard adversarial training provides modest improvements in robustness ($\sim$10 percentage points). Conversely, our FGSM-Neuro-Symbolic and PGD-Neuro-Symbolic models achieve substantially larger gains, improving adversarial accuracy by 18.1\% and 17.35\% over their corresponding adversarial-training baselines, representing roughly a three-fold larger robustness gain than standard adversarial training provides when both are measured relative to the same clean-training baseline, without reducing clean-sample accuracy. Compared to transformer-based defenses such as LNL-MoEx, which require heavy architectures and extensive data augmentation, our PGD-Neuro-Symbolic variant attains comparable or superior robustness using a ResNet18 backbone trained for 10 epochs. These results show that symbolic reasoning offers an effective path to robust and interpretable AI.
- Abstract(参考訳): 敵対的脆弱性と解釈可能性の欠如は、特に自律運転のような安全に敏感な設定において、ディープニューラルネットワークの重要な制限である。
本稿では,ニューラル・シンボリック・フレームワークである \DesignII について紹介する。
ドメイン知識は、形状や色などの外観特性に対する論理的制約としてエンコードされ、トレーニング中に適用される意味論理と記号論理の損失によって強制される。
GTSRBデータセットを用いて、標準的な$\ell_\infty$摂動予算である$\varepsilon = 8/255$でFGSMおよびPGD攻撃に対する堅牢性を評価する。
クリーンなトレーニングとは対照的に、標準的な敵のトレーニングは、ロバストネスを控えめに改善する(\sim$10%)。
逆に、FGSM-Neuro-SymbolicモデルとPGD-Neuro-Symbolicモデルでは、正反対トレーニングベースラインに対して18.1\%と17.35\%の対向精度を向上し、両モデルが同一のクリーントレーニングベースラインに対して測定された場合の標準対向トレーニングよりも約3倍大きなロバスト性ゲインを示す。
重いアーキテクチャと広範なデータ拡張を必要とするLNL-MoExのようなトランスフォーマーベースのディフェンスと比較して、PGD-Neuro-Symbolicの派生型は、10時間でトレーニングされたResNet18バックボーンを使用して、同等または優れたロバスト性を実現する。
これらの結果は、シンボリック推論が、堅牢で解釈可能なAIへの効果的な経路を提供することを示している。
関連論文リスト
- Bridging Symmetry and Robustness: On the Role of Equivariance in Enhancing Adversarial Robustness [9.013874391203453]
敵対的な例では、知覚不能な入力摂動に対する感度を利用して、ディープニューラルネットワークの重大な脆弱性を明らかにしている。
本研究では,群-同変畳み込みを組込み,対向ロバスト性に対するアーキテクチャ的アプローチについて検討する。
これらの層は、モデル行動と入力空間の構造化変換を整合させる対称性の先行を符号化し、よりスムーズな決定境界を促進する。
論文 参考訳(メタデータ) (2025-10-17T19:26:58Z) - Enhancing Robust Representation in Adversarial Training: Alignment and
Exclusion Criteria [61.048842737581865]
対人訓練 (AT) は, 頑健な特徴の学習を省略し, 対人的頑健さの低下を招いた。
非対称な負のコントラストと逆の注意によって、頑健な表現を得るためのATの一般的なフレームワークを提案する。
3つのベンチマークデータセットの実証評価により,ATの堅牢性を大幅に向上し,最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2023-10-05T07:29:29Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - Strength-Adaptive Adversarial Training [103.28849734224235]
対戦訓練(AT)は、敵データに対するネットワークの堅牢性を確実に改善することが証明されている。
所定の摂動予算を持つ現在のATは、堅牢なネットワークの学習に制限がある。
本稿では,これらの制限を克服するために,emphStrength-Adaptive Adversarial Training (SAAT)を提案する。
論文 参考訳(メタデータ) (2022-10-04T00:22:37Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - On the Noise Stability and Robustness of Adversarially Trained Networks
on NVM Crossbars [6.506883928959601]
我々は,NVMクロスバー型アナログハードウェアの対角的トレーニングと本質的ロバスト性を融合して,ロバストなディープニューラルネットワーク(DNN)の設計について検討する。
この結果から, ハードウェアの非理想性と, 最適ロバスト性と性能のために$epsilon_train$を慎重に校正する必要があることが示唆された。
論文 参考訳(メタデータ) (2021-09-19T04:59:39Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Adversarial Robustness of Stabilized NeuralODEs Might be from Obfuscated
Gradients [30.560531008995806]
我々は、ホワイトボックス攻撃下での非自明な対角的ロバスト性を実現するニューラルネットワーク正規微分方程式(ODE)の実証可能な安定なアーキテクチャを提案する。
動的システム理論に触発されて, ODEブロックが歪対称であり, 入力出力安定であることが証明されたSONetというニューラルネットワークを設計した。
自然訓練により、SONetは、自然な精度を犠牲にすることなく、最先端の対人防御手法と同等の堅牢性を達成することができる。
論文 参考訳(メタデータ) (2020-09-28T08:51:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。