論文の概要: Open the Pandora's Box of LLMs: Jailbreaking LLMs through Representation
Engineering
- arxiv url: http://arxiv.org/abs/2401.06824v1
- Date: Fri, 12 Jan 2024 00:50:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 21:20:18.777998
- Title: Open the Pandora's Box of LLMs: Jailbreaking LLMs through Representation
Engineering
- Title(参考訳): Pandora's Box of LLM: Representation Engineering による LLM のジェイルブレイク
- Authors: Tianlong Li, Xiaoqing Zheng, Xuanjing Huang
- Abstract要約: 本稿では, 精巧な施工手順を必要とせず, モデル微調整の影響を受けず, 任意のオープンソースLCMに対して, プラグ可能な方法で広く適用可能なジェイルブレイク手法を提案する。
いくつかの興味深いジェイルブレイク事件に驚いた後、我々はこの手法の技法を深く研究した。
- 参考スコア(独自算出の注目度): 36.61892856628794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Getting large language models (LLMs) to refuse to answer hostile toxicity
questions is a core issue under the theme of LLMs security. Previous approaches
have used prompts engineering to jailbreak LLMs and answer some toxicity
questions. These approaches can easily fail after the model manufacturer makes
additional fine-tuning to the model. To promote the further understanding of
model jailbreaking by researchers, we are inspired by Representation
Engineering to propose a jailbreaking method that does not require elaborate
construction prompts, is not affected by model fine-tuning, and can be widely
applied to any open-source LLMs in a pluggable manner. We have evaluated this
method on multiple mainstream LLMs on carefully supplemented toxicity datasets,
and the experimental results demonstrate the significant effectiveness of our
approach. After being surprised by some interesting jailbreaking cases, we did
extensive in-depth research to explore the techniques behind this method.
- Abstract(参考訳): 大きな言語モデル(LLM)を敵対的な毒性問題に答えることを拒否したことは、LLMのセキュリティというテーマの中核的な問題である。
これまでのアプローチでは、lLMをジェイルブレイクし、いくつかの毒性問題に答えるために、プロンプトエンジニアリングを使用してきた。
これらのアプローチは、モデルメーカがモデルに微調整を加えると容易に失敗する可能性がある。
研究者らによるモデルジェイルブレイクのさらなる理解を促進するため,我々はRepresentation Engineering にインスパイアされ,精巧な構築手順を必要とせず,モデル微調整の影響を受けず,プラグイン可能なオープンソース LLM にも広く適用可能なジェイルブレイク手法を提案する。
本研究では, 本手法の有効性を実験的に検証し, 本手法の有効性を実証した。
いくつかの興味深いジェイルブレイク事件に驚いた後、我々はこの手法の背景にある技法を深く研究した。
関連論文リスト
- Figure it Out: Analyzing-based Jailbreak Attack on Large Language Models [21.252514293436437]
大規模言語モデル(LLM)に対するジェイルブレイク攻撃に対する分析ベースジェイルブレイク(ABJ)を提案する。
ABJはGPT-4-turbo-0409上で94.8%の攻撃成功率(ASR)と1.06の攻撃効率(AE)を達成する。
論文 参考訳(メタデータ) (2024-07-23T06:14:41Z) - How Alignment and Jailbreak Work: Explain LLM Safety through Intermediate Hidden States [65.45603614354329]
大規模言語モデル(LLM)は、悪意のあるユーザ入力に対する応答を避けるために、安全アライメントに依存している。
ジェイルブレイクは安全ガードレールを回避でき、LLMは有害な内容を生成する。
中間隠蔽状態を通してLSMの安全性を説明するために弱い分類器を用いる。
論文 参考訳(メタデータ) (2024-06-09T05:04:37Z) - Defensive Prompt Patch: A Robust and Interpretable Defense of LLMs against Jailbreak Attacks [59.46556573924901]
本稿では,大規模言語モデル(LLM)のための新しいプロンプトベースの防御機構であるDPPを紹介する。
従来のアプローチとは異なり、DPP は LLM の高能率を維持しながら最小の攻撃成功率 (ASR) を達成するように設計されている。
LLAMA-2-7B-ChatおよびMistral-7B-Instruct-v0.2モデルによる実験結果から,DSPの堅牢性と適応性が確認された。
論文 参考訳(メタデータ) (2024-05-30T14:40:35Z) - Defending Large Language Models Against Jailbreak Attacks via Layer-specific Editing [14.094372002702476]
大規模言語モデル(LLM)は、広範囲の現実世界のアプリケーションで採用されつつある。
近年の研究では、LSMは故意に構築された敵のプロンプトに弱いことが示されている。
そこで本研究では,新しい防衛手法である textbfLayer-specific textbfEditing (LED) を提案する。
論文 参考訳(メタデータ) (2024-05-28T13:26:12Z) - Subtoxic Questions: Dive Into Attitude Change of LLM's Response in Jailbreak Attempts [13.176057229119408]
Prompt Jailbreakingの言語モデル(LLM)がますます注目を集めています。
本稿では,ジェイルブレイクのプロンプトに対して本質的により敏感な,対象とする一連の質問に焦点をあてて,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-12T08:08:44Z) - Distract Large Language Models for Automatic Jailbreak Attack [8.364590541640482]
大規模言語モデルの自動レッドチーム化のための新しいブラックボックスジェイルブレイクフレームワークを提案する。
我々は、Jailbreak LLMに対する反復最適化アルゴリズムを用いて、悪意のあるコンテンツの隠蔽とメモリリフレーミングを設計した。
論文 参考訳(メタデータ) (2024-03-13T11:16:43Z) - Gradient Cuff: Detecting Jailbreak Attacks on Large Language Models by Exploring Refusal Loss Landscapes [61.916827858666906]
大規模言語モデル(LLM)は、ユーザがクエリを入力し、LLMが回答を生成する、顕著な生成AIツールになりつつある。
害と誤用を減らすため、人間のフィードバックからの強化学習のような高度な訓練技術を用いて、これらのLLMを人間の価値に合わせる努力がなされている。
近年の研究では、組込み安全ガードレールを転覆させようとする敵のジェイルブレイクの試みに対するLLMの脆弱性を強調している。
本稿では,脱獄を検知するGradient Cuffという手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T03:29:54Z) - Analyzing the Inherent Response Tendency of LLMs: Real-World
Instructions-Driven Jailbreak [26.741029482196534]
大規模言語モデル(LLM)が悪意ある指示に直面すると有害な応答を発生させる現象である。
本稿では,LDMのポテンシャルを増幅することでセキュリティ機構をバイパスし,肯定応答を生成する新しい自動ジェイルブレイク手法RADIALを提案する。
提案手法は,5つのオープンソースのLLMを用いて,英語の悪意のある命令に対する攻撃性能を良好に向上すると同時に,中国語の悪意のある命令に対するクロス言語攻撃の実行において,堅牢な攻撃性能を維持する。
論文 参考訳(メタデータ) (2023-12-07T08:29:58Z) - A Wolf in Sheep's Clothing: Generalized Nested Jailbreak Prompts can Fool Large Language Models Easily [51.63085197162279]
大きな言語モデル(LLM)は有用で安全な応答を提供するように設計されている。
ジェイルブレイク」と呼ばれる 敵のプロンプトは 保護を回避できる
有効なジェイルブレイクプロンプトを生成するためにLLM自体を活用する自動フレームワークであるReNeLLMを提案する。
論文 参考訳(メタデータ) (2023-11-14T16:02:16Z) - Jailbreaking Black Box Large Language Models in Twenty Queries [97.29563503097995]
大規模言語モデル(LLM)は、敵のジェイルブレイクに対して脆弱である。
LLMへのブラックボックスアクセスのみのセマンティックジェイルブレイクを生成するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-12T15:38:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。