論文の概要: Dynamic Parameter Optimization for Highly Transferable Transformation-Based Attacks
- arxiv url: http://arxiv.org/abs/2511.11993v1
- Date: Sat, 15 Nov 2025 02:14:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.491305
- Title: Dynamic Parameter Optimization for Highly Transferable Transformation-Based Attacks
- Title(参考訳): 高転送性変換型攻撃に対する動的パラメータ最適化
- Authors: Jiaming Liang, Chi-Man Pun,
- Abstract要約: O(nlogm) への複雑性を低減し,アップ・テンフォールパターンに基づく効率的な動的エレーション最適化 (DPO) を提案する。
異なるサロゲートモデル、イテレーション、タスクにわたる既存のトランスフォーメーションベースの攻撃に関する包括的な実験は、我々のDPOが転送可能性を大幅に改善できることを示す。
- 参考スコア(独自算出の注目度): 34.002154410494285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their wide application, the vulnerabilities of deep neural networks raise societal concerns. Among them, transformation-based attacks have demonstrated notable success in transfer attacks. However, existing attacks suffer from blind spots in parameter optimization, limiting their full potential. Specifically, (1) prior work generally considers low-iteration settings, yet attacks perform quite differently at higher iterations, so characterizing overall performance based only on low-iteration results is misleading. (2) Existing attacks use uniform parameters for different surrogate models, iterations, and tasks, which greatly impairs transferability. (3) Traditional transformation parameter optimization relies on grid search. For n parameters with m steps each, the complexity is O(mn). Large computational overhead limits further optimization of parameters. To address these limitations, we conduct an empirical study with various transformations as baselines, revealing three dynamic patterns of transferability with respect to parameter strength. We further propose a novel Concentric Decay Model (CDM) to effectively explain these patterns. Building on these insights, we propose an efficient Dynamic Parameter Optimization (DPO) based on the rise-then-fall pattern, reducing the complexity to O(nlogm). Comprehensive experiments on existing transformation-based attacks across different surrogate models, iterations, and tasks demonstrate that our DPO can significantly improve transferability.
- Abstract(参考訳): 広く応用されているにもかかわらず、ディープニューラルネットワークの脆弱性は社会的懸念を引き起こす。
中でもトランスフォーメーションベースの攻撃は、トランスファー攻撃で顕著な成功を収めた。
しかし、既存の攻撃はパラメータ最適化の盲点に悩まされ、その潜在能力を制限している。
具体的には,(1)先行研究は概して低照度設定を考慮しているが,攻撃は高いイテレーションでかなり異なる性能を示すため,低照度結果のみに基づく全体的なパフォーマンスの特徴付けは誤解を招く。
2)既存の攻撃では、異なるサロゲートモデル、イテレーション、タスクに対して一様パラメータを使用しており、トランスファービリティを著しく損なう。
(3)従来の変換パラメータ最適化はグリッド探索に依存する。
m 個のステップを持つ n 個のパラメータに対して、複雑性は O(mn) である。
大きな計算オーバーヘッドはパラメータのさらなる最適化を制限する。
これらの制約に対処するため、様々な変換をベースラインとして経験的研究を行い、パラメータ強度に関する移動可能性の動的パターンを3つ明らかにした。
さらに,これらのパターンを効果的に説明するために,CDM(Concentric Decay Model)を提案する。
これらの知見に基づいて,立ち上がりパターンに基づく効率的な動的パラメータ最適化(DPO)を提案し,その複雑さをO(nlogm)に還元する。
異なるサロゲートモデル、イテレーション、タスクにわたる既存のトランスフォーメーションベースの攻撃に関する包括的な実験は、我々のDPOが転送可能性を大幅に改善できることを示す。
関連論文リスト
- Relation-Aware Bayesian Optimization of DBMS Configurations Guided by Affinity Scores [2.474203056060563]
データベース管理システム(DBMS)は,大規模および異種データの管理に基本的であり,その性能は構成パラメータの影響を強く受けている。
近年の研究では、機械学習を用いた自動構成最適化に焦点が当てられているが、既存のアプローチにはいくつかの重要な制限がある。
パラメータ依存をグラフとして表現する新しいフレームワークであるRelTuneを提案し,パフォーマンス関連セマンティクスを符号化したGNNベースの潜伏埋め込みを学習する。
論文 参考訳(メタデータ) (2025-10-31T03:46:42Z) - Neural Network Training via Stochastic Alternating Minimization with Trainable Step Sizes [3.246129789918632]
ディープニューラルネットワークのトレーニングは本質的に非最適化問題である。
勾配降下(SGD)のような標準的なアプローチでは、パラメータを同時に更新する必要がある。
そこで本研究では,SAMTを用いた列車最小化手法を提案する。
SAMTは、最先端のメソッドに比べて、パラメータ更新が少なく、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2025-08-06T08:23:38Z) - Generalized Tensor-based Parameter-Efficient Fine-Tuning via Lie Group Transformations [50.010924231754856]
さまざまな下流タスクに事前訓練された基礎モデルを適用することは、人工知能のコアプラクティスである。
これを解決するために、LoRAのようなパラメータ効率細調整(PEFT)手法が登場し、研究の焦点となっている。
本稿では,行列型PEFT法を高次元パラメータ空間に拡張する一般化法を提案する。
論文 参考訳(メタデータ) (2025-04-01T14:36:45Z) - TriAdaptLoRA: Brain-Inspired Triangular Adaptive Low-Rank Adaptation for Parameter-Efficient Fine-Tuning [9.730075039461154]
様々な下流タスクで最適なパフォーマンスを達成するために、微調整の大規模言語モデル(LLM)が重要である。
本稿では,神経科学の原理に触発された新しいPEFTフレームワークであるAdaptive Low-Rank Adaptation (TriAdaptLoRA)を提案する。
様々な自然言語理解および生成タスクの実験は、TriAdaptLoRAが既存のPEFT法より一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-01-14T10:51:31Z) - LoRTA: Low Rank Tensor Adaptation of Large Language Models [70.32218116940393]
Low Rank Adaptation (LoRA) は、PEFT (Efficient Fine Tuning) 法として人気がある。
よりコンパクトで柔軟な表現を可能にする高階Candecomp/Parafac(CP)分解を提案する。
本手法は,比較性能を維持しつつパラメータ数を削減できる。
論文 参考訳(メタデータ) (2024-10-05T06:59:50Z) - Enhancing Adversarial Attacks via Parameter Adaptive Adversarial Attack [12.647669152300871]
敵攻撃アルゴリズムの複雑さについて検討し、敵攻撃過程をDSP(Directional Supervision Process)とDOP(Directional Optimization Process)の2つのクリティカルフェーズに分割する。
逆効果に対するモデルの影響は、しばしば現在の研究で見落とされ、DSPを無視する。
特定の条件下では、微調整モデルパラメータはDSPの品質を大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-08-14T17:51:15Z) - Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Parameter-efficient Tuning of Large-scale Multimodal Foundation Model [68.24510810095802]
我々はこれらの課題を克服するために、クロスモーダル転送(Aurora)のための優雅なプロンプトフレームワークを提案する。
既存のアーキテクチャの冗長性を考慮すると、まずモード近似を用いて0.1Mのトレーニング可能なパラメータを生成し、マルチモーダルプロンプトチューニングを実装する。
6つのクロスモーダルベンチマークの徹底的な評価は、最先端のベンチマークを上回るだけでなく、完全な微調整アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-15T06:40:56Z) - Improving Hyperparameter Optimization by Planning Ahead [3.8673630752805432]
本稿では,モデルに基づく強化学習の文脈内で定義された新しい伝達学習手法を提案する。
本稿では,シンプルなルックアヘッド戦略をポリシーとして用いたモデル予測制御法を提案する。
最新のHPOアルゴリズムと比較した3つのメタデータセット実験により,提案手法が全ベースラインを上回り得ることを示す。
論文 参考訳(メタデータ) (2021-10-15T11:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。