論文の概要: Accelerating Greedy Coordinate Gradient via Probe Sampling
- arxiv url: http://arxiv.org/abs/2403.01251v1
- Date: Sat, 2 Mar 2024 16:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 14:27:41.325376
- Title: Accelerating Greedy Coordinate Gradient via Probe Sampling
- Title(参考訳): プローブサンプリングによるグレディ座標勾配の高速化
- Authors: Yiran Zhao, Wenyue Zheng, Tianle Cai, Xuan Long Do, Kenji Kawaguchi,
Anirudh Goyal, Michael Shieh
- Abstract要約: 我々はGCGアルゴリズムを高速化するために$ttexttProbe sample$という新しいアルゴリズムを研究している。
ターゲットモデルがドラフトモデルと類似している場合、多くの潜在的なプロンプト候補をフィルタリングするために、ドラフトモデルに大きく依存します。
プローブサンプリングは、Llama2-7bを使用して最大5.6ドルのスピードアップを達成し、AdvBench上での攻撃成功率(ASR)を同等または改善する。
- 参考スコア(独自算出の注目度): 42.568363339075994
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Safety of Large Language Models (LLMs) has become a central issue given their
rapid progress and wide applications. Greedy Coordinate Gradient (GCG) is shown
to be effective in constructing prompts containing adversarial suffixes to
break the presumingly safe LLMs, but the optimization of GCG is time-consuming
and limits its practicality. To reduce the time cost of GCG and enable more
comprehensive studies of LLM safety, in this work, we study a new algorithm
called $\texttt{Probe sampling}$ to accelerate the GCG algorithm. At the core
of the algorithm is a mechanism that dynamically determines how similar a
smaller draft model's predictions are to the target model's predictions for
prompt candidates. When the target model is similar to the draft model, we rely
heavily on the draft model to filter out a large number of potential prompt
candidates to reduce the computation time. Probe sampling achieves up to $5.6$
times speedup using Llama2-7b and leads to equal or improved attack success
rate (ASR) on the AdvBench.
- Abstract(参考訳): 大規模言語モデルの安全性(LLM)は、その急速な進歩と幅広い応用から、中心的な問題となっている。
グリーディ座標勾配 (gcg) は, 潜在的に安全な llm を壊すための逆接尾辞を含むプロンプトの構築に有効であることが示されているが, gcg の最適化には時間がかかり, 実用性に制限がある。
本稿では,GCGの時間コストを低減し,LCM安全性のより包括的な研究を可能にするため,GCGアルゴリズムを高速化するために,$\texttt{Probe sample}$という新しいアルゴリズムを提案する。
アルゴリズムの核心は、より小さなドラフトモデルの予測が、プロンプト候補に対するターゲットモデルの予測とどの程度類似しているかを動的に決定するメカニズムである。
対象モデルがドラフトモデルと類似している場合,多くの候補候補をフィルタリングして計算時間を短縮するために,ドラフトモデルに大きく依存する。
プローブサンプリングは、Llama2-7bを使用して最大5.6ドルのスピードアップを達成し、AdvBench上での攻撃成功率(ASR)を同等または改善する。
関連論文リスト
- Ouroboros: Speculative Decoding with Large Model Enhanced Drafting [75.34417163859018]
我々は,大規模言語モデルの検証プロセスから句候補プールを構築するOuroborosを紹介した。
Ouroborosは、ルックアヘッドの復号化や投機的復号化と比較して、最大1.9倍と2.8倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-02-21T11:31:28Z) - Attacking Large Language Models with Projected Gradient Descent [12.130638442765857]
逆数プロンプトの射影勾配 Descent (PGD) は、最先端の離散最適化よりも最大1桁高速である。
我々のLPM用PGDは、同じ破壊的な攻撃結果を達成するために、最先端の離散最適化よりも最大1桁高速である。
論文 参考訳(メタデータ) (2024-02-14T13:13:26Z) - GliDe with a CaPE: A Low-Hassle Method to Accelerate Speculative
Decoding [81.01996600734616]
GliDe と CaPE を導入し,バニラ投機復号への2つの低ハードル修正を行った。
GliDeは、ターゲットのLLMからキャッシュされたキーと値を再利用する、修正されたドラフトモデルアーキテクチャである。
コード、データ、トレーニング済みのドラフトモデルをリリースします。
論文 参考訳(メタデータ) (2024-02-03T08:44:11Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - Stochastic Average Gradient : A Simple Empirical Investigation [0.0]
平均勾配 (SAG) は有限個の滑らかな関数の和を最適化する手法である。
SAGは、単純な玩具問題において、他のイテレーションよりも早く収束し、単純な機械学習問題において、他の多くのイテレーションよりも優れたパフォーマンスを発揮する。
また,運動量アルゴリズムとAdamを組み合わせたSAGを提案する。
論文 参考訳(メタデータ) (2023-07-27T17:34:26Z) - $\bar{G}_{mst}$:An Unbiased Stratified Statistic and a Fast Gradient
Optimization Algorithm Based on It [0.0]
barG_mst$をベースとしたMSSGという新しいアルゴリズムは、他のsgdライクなアルゴリズムより優れている。
論文 参考訳(メタデータ) (2021-10-07T11:48:55Z) - Robust Regression Revisited: Acceleration and Improved Estimation Rates [25.54653340884806]
強い汚染モデルの下で, 統計的回帰問題に対する高速アルゴリズムについて検討する。
目的は、逆向きに破損したサンプルを与えられた一般化線形モデル(GLM)を概ね最適化することである。
実行時や推定保証が改善された頑健な回帰問題に対して,ほぼ直線的な時間アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-22T17:21:56Z) - Parameter-free Locally Accelerated Conditional Gradients [91.19349793915615]
私たちは小説を紹介します。
自由局所加速cg(pf-lacg)アルゴリズムは,厳密な収束保証を提供する。
我々の理論結果は,局所加速度を実証し,非加速アルゴリズムに対するPF-LaCGの実用的改善を示す数値実験によって補完される。
論文 参考訳(メタデータ) (2021-02-12T22:50:01Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。