論文の概要: PassGPT: Password Modeling and (Guided) Generation with Large Language
Models
- arxiv url: http://arxiv.org/abs/2306.01545v2
- Date: Wed, 14 Jun 2023 22:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 00:08:52.580622
- Title: PassGPT: Password Modeling and (Guided) Generation with Large Language
Models
- Title(参考訳): PassGPT: 大きな言語モデルを用いたパスワードモデリングと(ガイド付き)生成
- Authors: Javier Rando and Fernando Perez-Cruz and Briland Hitaj
- Abstract要約: パスワード生成のためのパスワードリークをトレーニングした大規模言語モデルであるPassGPTを提案する。
また、任意の制約を満たすパスワードを生成するために、PassGPTサンプリング手順を利用する誘導パスワード生成の概念も導入する。
- 参考スコア(独自算出の注目度): 59.11160990637616
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) successfully model natural language from vast
amounts of text without the need for explicit supervision. In this paper, we
investigate the efficacy of LLMs in modeling passwords. We present PassGPT, a
LLM trained on password leaks for password generation. PassGPT outperforms
existing methods based on generative adversarial networks (GAN) by guessing
twice as many previously unseen passwords. Furthermore, we introduce the
concept of guided password generation, where we leverage PassGPT sampling
procedure to generate passwords matching arbitrary constraints, a feat lacking
in current GAN-based strategies. Lastly, we conduct an in-depth analysis of the
entropy and probability distribution that PassGPT defines over passwords and
discuss their use in enhancing existing password strength estimators.
- Abstract(参考訳): 大規模言語モデル(LLM)は、明示的な監督なしに大量のテキストから自然言語をモデル化することに成功した。
本稿では,パスワードのモデリングにおけるLLMの有効性について検討する。
パスワード生成のためのパスワードリークを訓練したllmであるpassgptを提案する。
passgptは、従来の2倍のパスワードを推測することで、generative adversarial networks (gan) に基づく既存の方法よりも優れています。
さらに,任意の制約に対応するパスワードを生成するためにPassGPTサンプリング手法を利用する誘導型パスワード生成の概念を導入する。
最後に、passgptがパスワード上で定義しているエントロピーと確率分布の詳細な分析を行い、既存のパスワード強度推定器の強化における使用について論じる。
関連論文リスト
- PassTSL: Modeling Human-Created Passwords through Two-Stage Learning [7.287089766975719]
NLPと深層学習(DL)で一般的な事前学習ファインタニングフレームワークに着想を得たPassTSL(2段階学習による人為的なパスワードのモデル化)を提案する。
PassTSLはパスワード推測において5つのSOTA(State-of-the-art)パスワードクラッキング法を最大で4.11%から64.69%の差で上回っている。
PassTSLに基づいてパスワード強度計(PSM)も実装し,パスワード強度をより正確に推定できることを示した。
論文 参考訳(メタデータ) (2024-07-19T09:23:30Z) - Nudging Users to Change Breached Passwords Using the Protection Motivation Theory [58.87688846800743]
我々は保護動機理論(PMT)に基づいて、侵入したパスワードの変更を促すナッジを設計する。
本研究は, PMTのセキュリティ研究への応用に寄与し, 漏洩したクレデンシャル通知を改善するための具体的な設計上の意味を提供する。
論文 参考訳(メタデータ) (2024-05-24T07:51:15Z) - PagPassGPT: Pattern Guided Password Guessing via Generative Pretrained Transformer [8.591143235694826]
本稿では,GPT(Generative Pretrained Transformer)を用いたパスワード推測モデルPagPassGPTを提案する。
パターン構造情報を背景知識として組み込むことでパターンガイドによる推測を行うことができ、それによってヒット率が大幅に向上する。
また,D&C-GENを用いて生成したパスワードの繰り返し率を低減する手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T09:06:14Z) - Search-based Ordered Password Generation of Autoregressive Neural Networks [0.0]
GPTに基づくパスワード推測モデルであるSOPGesGPTを構築し,SOPGを用いてパスワードを生成する。
最も影響力のあるモデルであるOMEN、FLA、PassGAN、VAEPassと比較すると、SOPGesGPTは有効率とカバーレートの両方においてはるかに優れている。
論文 参考訳(メタデータ) (2024-03-15T01:30:38Z) - CodeChameleon: Personalized Encryption Framework for Jailbreaking Large
Language Models [49.60006012946767]
パーソナライズされた暗号化手法に基づく新しいジェイルブレイクフレームワークであるCodeChameleonを提案する。
我々は、7つの大規模言語モデルに関する広範な実験を行い、最先端の平均アタック成功率(ASR)を達成する。
GPT-4-1106上で86.6%のASRを実現する。
論文 参考訳(メタデータ) (2024-02-26T16:35:59Z) - A Quality-based Syntactic Template Retriever for
Syntactically-controlled Paraphrase Generation [67.98367574025797]
既存の構文制御されたパラフレーズ生成モデルは、人間の注釈付きまたはよく書かれた構文テンプレートで有望に機能する。
禁止コストにより、ソース文ごとに適切なテンプレートを手作業で設計することは不可能になります。
本稿では,QSTR(Quality-based Syntactic Template Retriever)を提案する。
論文 参考訳(メタデータ) (2023-10-20T03:55:39Z) - PassViz: A Visualisation System for Analysing Leaked Passwords [2.2530496464901106]
PassVizは、漏洩したパスワードを2次元空間で視覚化し分析するためのコマンドラインツールである。
本稿では、PassVizを用いて、漏洩したパスワードのさまざまな側面を視覚的に分析し、これまで知られていなかったパスワードパターンの発見を容易にする方法を示す。
論文 参考訳(メタデータ) (2023-09-22T16:06:26Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - Universal Neural-Cracking-Machines: Self-Configurable Password Models
from Auxiliary Data [21.277402919534566]
ユニバーサルパスワードモデル(ユニバーサルパスワードモデル、Universal password model)は、ターゲットシステムに基づく推測戦略を適応させるパスワードモデルである。
これは、ユーザの補助情報、例えばメールアドレスをプロキシ信号として利用して、基盤となるパスワードの配布を予測する。
論文 参考訳(メタデータ) (2023-01-18T16:12:04Z) - Byte Pair Encoding is Suboptimal for Language Model Pretraining [49.30780227162387]
一グラムLMトークン化とバイトペア符号化(BPE)の違いを分析する。
その結果,一グラムのLMトークン化手法は,下流タスクと2つの言語でBPEと一致し,BPEより優れることがわかった。
我々は、将来の事前訓練されたLMの開発者が、より一般的なBPEよりもユニグラムのLMメソッドを採用することを期待する。
論文 参考訳(メタデータ) (2020-04-07T21:21:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。