論文の概要: Influence-Guided Concolic Testing of Transformer Robustness
- arxiv url: http://arxiv.org/abs/2509.23806v1
- Date: Sun, 28 Sep 2025 11:09:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.460602
- Title: Influence-Guided Concolic Testing of Transformer Robustness
- Title(参考訳): インフルエンスガイドによる変圧器ロバストネスの評価
- Authors: Chih-Duo Hong, Yu Wang, Yao-Chen Chang, Fang Yu,
- Abstract要約: ディープニューラルネットワークの競合テストは、具体的な実行と制約解決を交互に行い、決定を反転させるインプットを検索する。
本稿では,トランスフォーマー分類器に対するインフルエンス誘導型衝突試験器を提案する。
- 参考スコア(独自算出の注目度): 2.78712872004245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concolic testing for deep neural networks alternates concrete execution with constraint solving to search for inputs that flip decisions. We present an {influence-guided} concolic tester for Transformer classifiers that ranks path predicates by SHAP-based estimates of their impact on the model output. To enable SMT solving on modern architectures, we prototype a solver-compatible, pure-Python semantics for multi-head self-attention and introduce practical scheduling heuristics that temper constraint growth on deeper models. In a white-box study on compact Transformers under small $L_0$ budgets, influence guidance finds label-flip inputs more efficiently than a FIFO baseline and maintains steady progress on deeper networks. Aggregating successful attack instances with a SHAP-based critical decision path analysis reveals recurring, compact decision logic shared across attacks. These observations suggest that (i) influence signals provide a useful search bias for symbolic exploration, and (ii) solver-friendly attention semantics paired with lightweight scheduling make concolic testing feasible for contemporary Transformer models, offering potential utility for debugging and model auditing.
- Abstract(参考訳): ディープニューラルネットワークの競合テストは、具体的な実行と制約解決を交互に行い、決定を反転させるインプットを検索する。
本稿では,トランスフォーマー分類器に対して,SHAPによるモデル出力への影響を推定し,経路のランク付けを行う,影響誘導型コンコリックテスタを提案する。
現代建築におけるSMTの解法を実現するため,多面的自己注意のための解法互換の純粋Python意味論を試作し,より深いモデルで成長を抑えるような実際のスケジューリングヒューリスティックスを導入する。
小さい$L_0$の予算下でのコンパクトトランスフォーマーに関するホワイトボックス研究において、インフルエンスガイダンスはFIFOベースラインよりも効率的にラベルフリップ入力を見つけ、より深いネットワークで安定した進捗を維持する。
SHAPベースのクリティカル決定パス分析で成功した攻撃インスタンスを集約すると、攻撃間で共有される、繰り返し発生するコンパクトな決定ロジックが明らかになる。
これらの観察は、
i)影響信号は、記号探索に有用な探索バイアスを与え、
(II) 軽量スケジューリングと組み合わせた解決者フレンドリなアテンションセマンティクスにより、現代のTransformerモデルでココリックテストが実現可能となり、デバッグとモデル監査のための潜在的ユーティリティを提供する。
関連論文リスト
- STEP: A Unified Spiking Transformer Evaluation Platform for Fair and Reproducible Benchmarking [5.660272448194108]
スパイキングトランスフォーマーは、スパイキングニューラルネットワークの効率と自己注意の表現力を組み合わせるための有望なアーキテクチャとして登場した。
分類,セグメンテーション,検出など,幅広いタスクをサポートするスパイキングトランスフォーマー用の統一ベンチマークフレームワークを提案する。
本研究では, スパイク空間, ビット幅, メモリアクセスを考慮したエネルギー推定モデルを提案する。
論文 参考訳(メタデータ) (2025-05-16T11:50:14Z) - Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Few-Shot Class Incremental Learning via Robust Transformer Approach [16.590193619691416]
Few-Shot Class-Incremental Learningは,データ不足の問題にモデルが直面しているクラス増分学習問題の拡張を提示する。
この問題は、最近のすべての研究が、準最適に実行される畳み込みニューラルネットワークの上に構築されているため、未解決の問題のままである。
本稿では,コンパクト畳み込み変換器を用いたロバスト変換器を提案する。
論文 参考訳(メタデータ) (2024-05-08T03:35:52Z) - Finding a Needle in the Adversarial Haystack: A Targeted Paraphrasing
Approach For Uncovering Edge Cases with Minimal Distribution Distortion [0.0]
言語モデル(LM)に対する敵対的攻撃は重要な関心事である。
本稿では,RL (TPRL) を用いたターゲットパラフレージングを提案する。
論文 参考訳(メタデータ) (2024-01-21T02:25:29Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - A CTC Alignment-based Non-autoregressive Transformer for End-to-end
Automatic Speech Recognition [26.79184118279807]
CTCアライメントに基づく一段非自己回帰変換器(CASS-NAT)をエンドツーエンドASRに適用する。
自己回帰変換器(AT)への単語埋め込みは、エンコーダ出力から抽出されたトークンレベルの音響埋め込み(TAE)で代用される。
我々は,CASS-NAT が様々な ASR タスクにおいて AT に近い WER を持ち,24 倍の推論速度を提供することを発見した。
論文 参考訳(メタデータ) (2023-04-15T18:34:29Z) - Learning to Rectify for Robust Learning with Noisy Labels [25.149277009932423]
分類ネットワークのトレーニング手順を適応的に修正するためのワープ確率推論(WarPI)を提案する。
雑音ラベルによる頑健な学習の4つのベンチマークでWarPIを評価し, 異種雑音下での新たな最先端の学習を実現する。
論文 参考訳(メタデータ) (2021-11-08T02:25:50Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。