論文の概要: Understanding and Improving Adversarial Robustness of Neural Probabilistic Circuits
- arxiv url: http://arxiv.org/abs/2509.20549v1
- Date: Wed, 24 Sep 2025 20:25:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.581313
- Title: Understanding and Improving Adversarial Robustness of Neural Probabilistic Circuits
- Title(参考訳): ニューラル確率回路の対向ロバスト性理解と改善
- Authors: Weixin Chen, Han Zhao,
- Abstract要約: 新しい概念ボトルネックモデルであるニューラル確率回路は、属性認識モデルと推論のための確率回路から構成される。
理論的にNPCの対向ロバスト性を解析し、属性認識モデルのロバスト性にのみ依存することを示す。
我々は,認識モジュールに対する敵攻撃に対して,最初の堅牢なニューラル確率回路であるRNPCを提案する。
- 参考スコア(独自算出の注目度): 13.696507778417326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Probabilistic Circuits (NPCs), a new class of concept bottleneck models, comprise an attribute recognition model and a probabilistic circuit for reasoning. By integrating the outputs from these two modules, NPCs produce compositional and interpretable predictions. While offering enhanced interpretability and high performance on downstream tasks, the neural-network-based attribute recognition model remains a black box. This vulnerability allows adversarial attacks to manipulate attribute predictions by introducing carefully crafted subtle perturbations to input images, potentially compromising the final predictions. In this paper, we theoretically analyze the adversarial robustness of NPC and demonstrate that it only depends on the robustness of the attribute recognition model and is independent of the robustness of the probabilistic circuit. Moreover, we propose RNPC, the first robust neural probabilistic circuit against adversarial attacks on the recognition module. RNPC introduces a novel class-wise integration for inference, ensuring a robust combination of outputs from the two modules. Our theoretical analysis demonstrates that RNPC exhibits provably improved adversarial robustness compared to NPC. Empirical results on image classification tasks show that RNPC achieves superior adversarial robustness compared to existing concept bottleneck models while maintaining high accuracy on benign inputs.
- Abstract(参考訳): 新しい概念ボトルネックモデルであるニューラル確率回路(NPC)は、属性認識モデルと推論のための確率回路から構成される。
これら2つのモジュールからの出力を統合することで、NPCは構成的および解釈可能な予測を生成する。
下流タスクでの解釈可能性の向上と高いパフォーマンスを提供する一方で、ニューラルネットワークベースの属性認識モデルはブラックボックスのままである。
この脆弱性により、画像に微妙な摂動を慎重に導入して属性予測を操作でき、最終的な予測を損なう可能性がある。
本稿では,NPCの対向ロバスト性を理論的に解析し,属性認識モデルのロバスト性にのみ依存し,確率回路のロバスト性に依存していることを示す。
さらに,認識モジュールに対する敵攻撃に対する最初の堅牢なニューラル確率回路であるRNPCを提案する。
RNPCは推論のための新しいクラスワイド統合を導入し、2つのモジュールからの出力の堅牢な組み合わせを保証する。
理論的解析により,RNPCはNPCと比較して高い対向性を示した。
画像分類タスクにおける実験結果から,RNPCは既存の概念ボトルネックモデルと比較して,良質な入力に対して高い精度を維持しつつ,優れた対逆ロバスト性を実現することが示された。
関連論文リスト
- Tractable Representation Learning with Probabilistic Circuits [30.116247936061395]
確率回路(PC)は、正確かつトラクタブルな推論を可能にする強力な確率的モデルである。
ニューラルネットワークでは支配的だが、PCによる表現学習はいまだに過小評価されている。
我々は,PCのトラクタビリティを活用し,確率的埋め込みを明示的にモデル化する新しいフレームワークであるオートエンコード確率回路(APC)を紹介する。
論文 参考訳(メタデータ) (2025-07-06T13:17:16Z) - Neural Probabilistic Circuits: Enabling Compositional and Interpretable Predictions through Logical Reasoning [12.97542954564487]
我々はニューラル確率回路(NPC)と呼ばれる本質的に透明なモデルアーキテクチャを提案する。
NPCは論理的推論を通じて構成的および解釈可能な予測を可能にする。
我々は,NPCが解釈可能性と性能のバランスを保ち,エンドツーエンドのブラックボックスモデルと競合する結果が得られることを示した。
論文 参考訳(メタデータ) (2025-01-13T02:47:49Z) - Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Uncertainty-Aware Explanations Through Probabilistic Self-Explainable Neural Networks [17.238290206236027]
Prob-PSENNは、それらの値上の確率分布を持つプロトタイプの点推定を置き換える。
Prob-PSENNは、確率的でないものよりも有意義で堅牢な説明を提供する。
論文 参考訳(メタデータ) (2024-03-20T16:47:28Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。