論文の概要: Universal Neural-Cracking-Machines: Self-Configurable Password Models
from Auxiliary Data
- arxiv url: http://arxiv.org/abs/2301.07628v1
- Date: Wed, 18 Jan 2023 16:12:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 15:23:47.725317
- Title: Universal Neural-Cracking-Machines: Self-Configurable Password Models
from Auxiliary Data
- Title(参考訳): Universal Neural-Cracking-Machines:補助データからの自己構成可能なパスワードモデル
- Authors: Dario Pasquini, Giuseppe Ateniese and Carmela Troncoso
- Abstract要約: 最初のユニバーサルパスワードモデル -- 事前訓練されたパスワードモデル -- は、任意のパスワード配布に自動的に適応できる。
これは、ユーザの補助情報、例えばメールアドレスをプロキシ信号として利用して、基盤となるターゲットパスワードの分布を予測する。
- 参考スコア(独自算出の注目度): 14.488799521318894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop the first universal password model -- a password model that, once
pre-trained, can automatically adapt to any password distribution. To achieve
this result, the model does not need to access any plaintext passwords from the
target set. Instead, it exploits users' auxiliary information, such as email
addresses, as a proxy signal to predict the underlying target password
distribution. The model uses deep learning to capture the correlation between
the auxiliary data of a group of users (e.g., users of a web application) and
their passwords. It then exploits those patterns to create a tailored password
model for the target community at inference time. No further training steps,
targeted data collection, or prior knowledge of the community's password
distribution is required. Besides defining a new state-of-the-art for password
strength estimation, our model enables any end-user (e.g., system
administrators) to autonomously generate tailored password models for their
systems without the often unworkable requirement of collecting suitable
training data and fitting the underlying password model. Ultimately, our
framework enables the democratization of well-calibrated password models to the
community, addressing a major challenge in the deployment of password security
solutions on a large scale.
- Abstract(参考訳): 最初のユニバーサルパスワードモデル -- 事前訓練されたパスワードモデル -- は、任意のパスワード配布に自動的に適応できる。
この結果を達成するために、モデルはターゲットセットからプレーンテキストパスワードにアクセスする必要はない。
代わりに、メールアドレスなどのユーザの補助情報をプロキシ信号として利用して、基盤となるターゲットパスワードの分布を予測する。
このモデルでは、ディープラーニングを使用して、ユーザグループ(例えば、webアプリケーションのユーザ)の補助データとパスワードの相関関係をキャプチャする。
そしてそれらのパターンを利用して、推論時にターゲットコミュニティ用に調整されたパスワードモデルを作成する。
さらなるトレーニングステップ、ターゲットデータ収集、コミュニティのパスワード配布に関する事前知識は不要である。
パスワード強度推定のための新たな最先端を定義するだけでなく、エンドユーザー(例えばシステム管理者)が適切なトレーニングデータを収集し、基礎となるパスワードモデルに適合させる必要なしに、システム用にカスタマイズされたパスワードモデルを自動的に生成できるようにする。
最終的に、当社のフレームワークは、十分に調整されたパスワードモデルのコミュニティへの民主化を可能にし、大規模なパスワードセキュリティソリューションの展開における大きな課題に対処します。
関連論文リスト
- Model Pairing Using Embedding Translation for Backdoor Attack Detection
on Open-Set Classification Tasks [51.78558228584093]
バックドア検出のためのオープンセット分類タスクにモデルペアを用いることを提案する。
両モデルがバックドアされている場合でも,バックドアが検出可能であることを示す。
論文 参考訳(メタデータ) (2024-02-28T21:29:16Z) - SentinelLMs: Encrypted Input Adaptation and Fine-tuning of Language
Models for Private and Secure Inference [6.0189674528771]
本稿では、ディープラーニングモデルに関連するプライバシとセキュリティの問題に対処する。
ディープニューラルネットワークモデルは、現代のAIベースの様々なアプリケーションにおいて重要なコンポーネントとして機能する。
パスキー暗号化されたユーザ固有テキストに対して,トランスフォーマーに基づく言語モデルを適応し,微調整する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-28T19:55:11Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - Dictionary Attack on IMU-based Gait Authentication [2.204806197679781]
スマートフォンに内蔵された慣性計測ユニット(IMU)によって記録された歩行パターンを利用する認証システムに対する新たな逆方向モデルを提案する。
攻撃のアイデアは、知識(PINまたはパスワード)ベースの認証システムに対する辞書攻撃という概念にインスパイアされ、命名された。
論文 参考訳(メタデータ) (2023-09-21T04:00:21Z) - PassGPT: Password Modeling and (Guided) Generation with Large Language
Models [59.11160990637616]
パスワード生成のためのパスワードリークをトレーニングした大規模言語モデルであるPassGPTを提案する。
また、任意の制約を満たすパスワードを生成するために、PassGPTサンプリング手順を利用する誘導パスワード生成の概念も導入する。
論文 参考訳(メタデータ) (2023-06-02T13:49:53Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - On Deep Learning in Password Guessing, a Survey [4.1499725848998965]
本稿では,ユーザのパスワード構造や組み合わせに関するドメイン知識や仮定を必要としない,深層学習に基づくパスワード推測手法について比較する。
非標的のオフライン攻撃によるパスワード推測におけるIWGANのバリエーションの利用に関する有望な実験的設計を提案する。
論文 参考訳(メタデータ) (2022-08-22T15:48:35Z) - GNPassGAN: Improved Generative Adversarial Networks For Trawling Offline
Password Guessing [5.165256397719443]
本稿では,深層学習に基づくパスワード推測手法について概説する。
また、GNPassGANも導入している。GNPassGANは、オフライン攻撃をトロールするジェネレーティブな敵ネットワーク上に構築されたパスワード推測ツールだ。
最先端のPassGANモデルと比較して、GNPassGANは88.03%以上のパスワードを推測し、31.69%の重複を発生させることができる。
論文 参考訳(メタデータ) (2022-08-14T23:51:52Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Federated Learning of User Authentication Models [69.93965074814292]
機械学習モデルのプライバシー保護のためのフレームワークであるFederated User Authentication (FedUA)を提案する。
FedUAは、フェデレートされた学習フレームワークを採用して、ユーザが生の入力を共有することなく、共同でモデルをトレーニングできるようにする。
提案手法はプライバシ保護であり,多数のユーザに対してスケーラブルであることを示し,出力層を変更することなく,新たなユーザをトレーニングに追加できるようにした。
論文 参考訳(メタデータ) (2020-07-09T08:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。