論文の概要: PassGPT: Password Modeling and (Guided) Generation with Large Language
Models
- arxiv url: http://arxiv.org/abs/2306.01545v2
- Date: Wed, 14 Jun 2023 22:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 00:08:52.580622
- Title: PassGPT: Password Modeling and (Guided) Generation with Large Language
Models
- Title(参考訳): PassGPT: 大きな言語モデルを用いたパスワードモデリングと(ガイド付き)生成
- Authors: Javier Rando and Fernando Perez-Cruz and Briland Hitaj
- Abstract要約: パスワード生成のためのパスワードリークをトレーニングした大規模言語モデルであるPassGPTを提案する。
また、任意の制約を満たすパスワードを生成するために、PassGPTサンプリング手順を利用する誘導パスワード生成の概念も導入する。
- 参考スコア(独自算出の注目度): 59.11160990637616
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) successfully model natural language from vast
amounts of text without the need for explicit supervision. In this paper, we
investigate the efficacy of LLMs in modeling passwords. We present PassGPT, a
LLM trained on password leaks for password generation. PassGPT outperforms
existing methods based on generative adversarial networks (GAN) by guessing
twice as many previously unseen passwords. Furthermore, we introduce the
concept of guided password generation, where we leverage PassGPT sampling
procedure to generate passwords matching arbitrary constraints, a feat lacking
in current GAN-based strategies. Lastly, we conduct an in-depth analysis of the
entropy and probability distribution that PassGPT defines over passwords and
discuss their use in enhancing existing password strength estimators.
- Abstract(参考訳): 大規模言語モデル(LLM)は、明示的な監督なしに大量のテキストから自然言語をモデル化することに成功した。
本稿では,パスワードのモデリングにおけるLLMの有効性について検討する。
パスワード生成のためのパスワードリークを訓練したllmであるpassgptを提案する。
passgptは、従来の2倍のパスワードを推測することで、generative adversarial networks (gan) に基づく既存の方法よりも優れています。
さらに,任意の制約に対応するパスワードを生成するためにPassGPTサンプリング手法を利用する誘導型パスワード生成の概念を導入する。
最後に、passgptがパスワード上で定義しているエントロピーと確率分布の詳細な分析を行い、既存のパスワード強度推定器の強化における使用について論じる。
関連論文リスト
- CodeChameleon: Personalized Encryption Framework for Jailbreaking Large
Language Models [49.60006012946767]
パーソナライズされた暗号化手法に基づく新しいジェイルブレイクフレームワークであるCodeChameleonを提案する。
我々は、7つの大規模言語モデルに関する広範な実験を行い、最先端の平均アタック成功率(ASR)を達成する。
GPT-4-1106上で86.6%のASRを実現する。
論文 参考訳(メタデータ) (2024-02-26T16:35:59Z) - A Quality-based Syntactic Template Retriever for
Syntactically-controlled Paraphrase Generation [67.98367574025797]
既存の構文制御されたパラフレーズ生成モデルは、人間の注釈付きまたはよく書かれた構文テンプレートで有望に機能する。
禁止コストにより、ソース文ごとに適切なテンプレートを手作業で設計することは不可能になります。
本稿では,QSTR(Quality-based Syntactic Template Retriever)を提案する。
論文 参考訳(メタデータ) (2023-10-20T03:55:39Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - Universal Neural-Cracking-Machines: Self-Configurable Password Models
from Auxiliary Data [21.277402919534566]
ユニバーサルパスワードモデル(ユニバーサルパスワードモデル、Universal password model)は、ターゲットシステムに基づく推測戦略を適応させるパスワードモデルである。
これは、ユーザの補助情報、例えばメールアドレスをプロキシ信号として利用して、基盤となるパスワードの配布を予測する。
論文 参考訳(メタデータ) (2023-01-18T16:12:04Z) - On Deep Learning in Password Guessing, a Survey [4.1499725848998965]
本稿では,ユーザのパスワード構造や組み合わせに関するドメイン知識や仮定を必要としない,深層学習に基づくパスワード推測手法について比較する。
非標的のオフライン攻撃によるパスワード推測におけるIWGANのバリエーションの利用に関する有望な実験的設計を提案する。
論文 参考訳(メタデータ) (2022-08-22T15:48:35Z) - Targeted Honeyword Generation with Language Models [5.165256397719443]
ハニーワードは、パスワード違反を特定するためにデータベースに挿入された架空のパスワードである。
大きな問題は、実際のパスワードと区別が難しいハニーワードの作り方だ。
論文 参考訳(メタデータ) (2022-08-15T00:06:29Z) - GNPassGAN: Improved Generative Adversarial Networks For Trawling Offline
Password Guessing [5.165256397719443]
本稿では,深層学習に基づくパスワード推測手法について概説する。
また、GNPassGANも導入している。GNPassGANは、オフライン攻撃をトロールするジェネレーティブな敵ネットワーク上に構築されたパスワード推測ツールだ。
最先端のPassGANモデルと比較して、GNPassGANは88.03%以上のパスワードを推測し、31.69%の重複を発生させることができる。
論文 参考訳(メタデータ) (2022-08-14T23:51:52Z) - Learning to Selectively Learn for Weakly-supervised Paraphrase
Generation [81.65399115750054]
弱監督データを用いた高品質なパラフレーズを生成するための新しい手法を提案する。
具体的には、弱制御されたパラフレーズ生成問題に以下のように取り組む。
検索に基づく擬似パラフレーズ展開により、豊富なラベル付き並列文を得る。
提案手法は,既存の教師なしアプローチよりも大幅に改善され,教師付き最先端技術と同等の性能を示す。
論文 参考訳(メタデータ) (2021-09-25T23:31:13Z) - PassFlow: Guessing Passwords with Generative Flows [1.1470070927586016]
フローに基づく生成モデルによるパスワード推定手法を提案する。
フローベースのモデルは正確なログライクな最適化を可能にし、正確な潜在変数推論を可能にする。
フローベースのネットワークは、元のパスワード分布を正確にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-05-13T09:50:36Z) - Byte Pair Encoding is Suboptimal for Language Model Pretraining [49.30780227162387]
一グラムLMトークン化とバイトペア符号化(BPE)の違いを分析する。
その結果,一グラムのLMトークン化手法は,下流タスクと2つの言語でBPEと一致し,BPEより優れることがわかった。
我々は、将来の事前訓練されたLMの開発者が、より一般的なBPEよりもユニグラムのLMメソッドを採用することを期待する。
論文 参考訳(メタデータ) (2020-04-07T21:21:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。