論文の概要: Colliding with Adversaries at ECML-PKDD 2025 Adversarial Attack Competition 1st Prize Solution
- arxiv url: http://arxiv.org/abs/2510.16440v1
- Date: Sat, 18 Oct 2025 10:26:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.995659
- Title: Colliding with Adversaries at ECML-PKDD 2025 Adversarial Attack Competition 1st Prize Solution
- Title(参考訳): ECML-PKDD 2025 対抗攻撃コンペティション第1回賞を受賞して
- Authors: Dimitris Stefanopoulos, Andreas Voskou,
- Abstract要約: 本報告では,ECML-PKDD 2025における高エネルギー物理発見におけるロバスト学習の課題について述べる。
このタスクは、摂動を最小限に抑えながら誤分類を最大化する、提供された分類モデルに対する敵攻撃を設計することを必要とした。
- 参考スコア(独自算出の注目度): 0.3437656066916039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This report presents the winning solution for Task 1 of Colliding with Adversaries: A Challenge on Robust Learning in High Energy Physics Discovery at ECML-PKDD 2025. The task required designing an adversarial attack against a provided classification model that maximizes misclassification while minimizing perturbations. Our approach employs a multi-round gradient-based strategy that leverages the differentiable structure of the model, augmented with random initialization and sample-mixing techniques to enhance effectiveness. The resulting attack achieved the best results in perturbation size and fooling success rate, securing first place in the competition.
- Abstract(参考訳): 本報告では,ECML-PKDD 2025における高エネルギー物理発見におけるロバスト学習の課題について述べる。
このタスクは、摂動を最小限に抑えながら誤分類を最大化する、提供された分類モデルに対する敵攻撃を設計することを必要とした。
提案手法では, モデルの微分可能な構造を利用して, ランダム初期化とサンプルミキシングを併用し, 有効性を向上する。
結果、攻撃は摂動の規模と成功率を騙し、競争の第一位を確保した。
関連論文リスト
- Colliding with Adversaries at ECML-PKDD 2025 Model Robustness Competition 1st Prize Solution [0.3437656066916039]
本報告では,ECML-PKDD 2025における高エネルギー物理発見におけるロバスト学習の課題について述べる。
この課題の目的は、クリーンデータと逆データの両方でバイナリ分類タスクにおいて高い精度を達成できる堅牢なANNベースのモデルを設計し、訓練することであった。
論文 参考訳(メタデータ) (2025-10-18T10:39:10Z) - Self-Classification Enhancement and Correction for Weakly Supervised Object Detection [113.51483527300496]
弱い監督対象検出(WSOD)は、ラベル付けコストの低いため、多くの注目を集めている。
本稿では,この2つの問題を改善するための新しいWSODフレームワークを紹介する。
まず,2つの異なるMCCタスク間のギャップを埋めるために,クラス内バイナリ分類(ICBC)を統合した自己分類拡張モジュールを提案する。
また,2つのMCCタスクの結果を組み合わせて,誤分類予測を効果的に削減する自己分類補正アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-05-22T06:45:58Z) - Seeking Flat Minima over Diverse Surrogates for Improved Adversarial Transferability: A Theoretical Framework and Algorithmic Instantiation [38.12499933796839]
本稿では, 対向転送可能性の証明可能な保証を提供する新しい転送可能性バウンダリを提案する。
以上の結果から,AEsをSurrogateモデル集合上の平らな最小値に最適化すると同時に,Surrogate-Targetモデルシフトを逆モデル不一致で制御することにより,AEの転送性に対する包括的保証が得られることが示唆された。
論文 参考訳(メタデータ) (2025-04-23T07:33:45Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Improving Transferable Targeted Adversarial Attack via Normalized Logit Calibration and Truncated Feature Mixing [26.159434438078968]
損失・特徴面から目標転送可能性を改善するための2つの手法を提案する。
以前のアプローチでは、ロジットキャリブレーションは主にターゲットクラスとサンプル間の未ターゲットクラスの間のロジットマージンに焦点を当てていた。
本稿では,ロジットマージンと標準偏差を共同で検討する正規化ロジット校正手法を提案する。
論文 参考訳(メタデータ) (2024-05-10T09:13:57Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Boosting Transferability of Targeted Adversarial Examples via
Hierarchical Generative Networks [56.96241557830253]
転送ベースの敵攻撃はブラックボックス設定におけるモデルロバスト性を効果的に評価することができる。
本稿では,異なるクラスを対象にした対角的例を生成する条件生成攻撃モデルを提案する。
提案手法は,既存の手法と比較して,標的となるブラックボックス攻撃の成功率を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-05T06:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。