論文の概要: Shapes are not enough: CONSERVAttack and its use for finding vulnerabilities and uncertainties in machine learning applications
- arxiv url: http://arxiv.org/abs/2603.13970v1
- Date: Sat, 14 Mar 2026 14:53:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.517967
- Title: Shapes are not enough: CONSERVAttack and its use for finding vulnerabilities and uncertainties in machine learning applications
- Title(参考訳): CONSERVAttackとその機械学習アプリケーションにおける脆弱性と不確実性発見への応用
- Authors: Philip Bechtle, Lucie Flek, Philipp Alexander Jung, Akbar Karimi, Timo Saala, Alexander Schmidt, Matthias Schott, Philipp Soldin, Christopher Wiebusch, Ulrich Willemsen,
- Abstract要約: 本稿では,シミュレーションとデータ間の仮定的偏差の残りの空間を活用するために,新たな敵攻撃を提案する。
結果として生じる逆の摂動は不確実性境界内で一貫したものであり、基礎となるモデルをうまく騙すことができる。
- 参考スコア(独自算出の注目度): 38.27104003999532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In High Energy Physics, as in many other fields of science, the application of machine learning techniques has been crucial in advancing our understanding of fundamental phenomena. Increasingly, deep learning models are applied to analyze both simulated and experimental data. In most experiments, a rigorous regime of testing for physically motivated systematic uncertainties is in place. The numerical evaluation of these tests for differences between the data on the one side and simulations on the other side quantifies the effect of potential sources of mismodelling on the machine learning output. In addition, thorough comparisons of marginal distributions and (linear) feature correlations between data and simulation in "control regions" are applied. However, the guidance by physical motivation, and the need to constrain comparisons to specific regions, does not guarantee that all possible sources of deviations have been accounted for. We therefore propose a new adversarial attack - the CONSERVAttack - designed to exploit the remaining space of hypothetical deviations between simulation and data after the above mentioned tests. The resulting adversarial perturbations are consistent within the uncertainty bounds - evading standard validation checks - while successfully fooling the underlying model. We further propose strategies to mitigate such vulnerabilities and argue that robustness to adversarial effects must be considered when interpreting results from deep learning in particle physics.
- Abstract(参考訳): 高エネルギー物理学では、他の多くの科学分野と同様に、機械学習技術の応用は、基本的な現象の理解を促進する上で極めて重要である。
シミュレーションデータと実験データの両方を解析するために、ディープラーニングモデルが次第に適用されていく。
ほとんどの実験では、物理的に動機付けられた体系的不確実性に対する厳格な試験体制が実施されている。
一方のデータの差分と他方のシミュレーションに対するこれらのテストの数値評価は、機械学習出力に対する誤モデリングの潜在的源の影響を定量化する。
さらに,「制御領域」におけるデータとシミュレーションの限界分布と(線形)特徴相関を徹底的に比較した。
しかし、物理的モチベーションによるガイダンスや、特定の地域との比較を制限する必要性は、すべての可能性のある逸脱の原因が説明されていることを保証していない。
そこで本研究では, 上記の実験の後に, シミュレーションとデータ間の仮定偏差の残りの空間を活用するために, 新たな敵攻撃(CONSERVAttack)を提案する。
結果として生じる逆転の摂動は、基礎となるモデルをうまく騙しながら、不確実性境界(標準のバリデーションチェックを回避する)内で一貫している。
さらに、このような脆弱性を軽減するための戦略を提案し、粒子物理学における深層学習の結果を解釈する際には、敵の効果に対する堅牢性を考慮する必要があると論じる。
関連論文リスト
- Do-PFN: In-Context Learning for Causal Effect Estimation [75.62771416172109]
予備データ適合ネットワーク(PFN)は, 合成データに基づいて事前学習を行い, 結果を予測する。
提案手法により,基礎となる因果グラフの知識を必要とせず,因果効果の正確な推定が可能となる。
論文 参考訳(メタデータ) (2025-06-06T12:43:57Z) - Data Fusion for Partial Identification of Causal Effects [62.56890808004615]
本稿では,研究者が重要な疑問に答えられるような,新しい部分的識別フレームワークを提案する。
因果効果は肯定的か否定的か?
本研究の枠組みをSTARプロジェクトに適用し,第3級の標準試験性能に対する教室規模の影響について検討する。
論文 参考訳(メタデータ) (2025-05-30T07:13:01Z) - Fairness and Robustness in Machine Unlearning [20.758637391023345]
機械学習アルゴリズムにおける公平性と堅牢性に焦点を当てる。
実験では、現在の最先端の非学習アルゴリズムが敵攻撃に対する脆弱性を実証している。
中間層と最後の層でのアンラーニングが時間とメモリの複雑さに十分で費用対効果があることを実証する。
論文 参考訳(メタデータ) (2025-04-18T10:31:44Z) - Prediction-Powered Causal Inferences [59.98498488132307]
予測型因果推論(PPCI)に焦点をあてる
まず, 条件付きキャリブレーションにより, 人口レベルでの有効なPPCIが保証されることを示す。
次に、実験間での十分な表現制約伝達の妥当性を導入する。
論文 参考訳(メタデータ) (2025-02-10T10:52:17Z) - Detecting Model Misspecification in Amortized Bayesian Inference with Neural Networks: An Extended Investigation [9.950524371154394]
本研究では、教師なしの方法で訓練し、テスト時にモデルの誤特定を確実に検出できる新しい誤特定尺度を提案する。
提案手法は,不審な出力をユーザに警告し,予測が信頼できない場合に警告を発し,モデル設計者がより良いシミュレータを探索する際の指針となることを示す。
論文 参考訳(メタデータ) (2024-06-05T11:30:16Z) - The Mirrored Influence Hypothesis: Efficient Data Influence Estimation by Harnessing Forward Passes [30.30769701138665]
我々は、訓練データとテストデータの間の相互影響を浮き彫りにして、ミラーレッド影響仮説を導入し、探求する。
具体的には、テスト予測に対するトレーニングデータの影響を評価することは、等価だが逆問題として再定義することができることを示唆している。
トレーニングポイント毎に前方パスとペアを組むことで,特定のテストサンプルの勾配を計算し,トレーニングデータの影響を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-14T03:43:05Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。