論文の概要: Adversarial Machine Learning for Robust Password Strength Estimation
- arxiv url: http://arxiv.org/abs/2506.00373v1
- Date: Sat, 31 May 2025 03:54:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 04:22:50.634903
- Title: Adversarial Machine Learning for Robust Password Strength Estimation
- Title(参考訳): ロバストパスワード強度推定のための逆機械学習
- Authors: Pappu Jha, Hanzla Hamid, Oluseyi Olukola, Ashim Dahal, Nick Rahimi,
- Abstract要約: 本研究では,逆機械学習を用いたパスワード強度推定モデルの開発に焦点をあてる。
5つの分類アルゴリズムを適用し、670,000以上の逆パスワードのサンプルを用いたデータセットを用いてモデルをトレーニングする。
その結果,従来の機械学習モデルと比較して,パスワード強度の分類精度を最大20%向上することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Passwords remain one of the most common methods for securing sensitive data in the digital age. However, weak password choices continue to pose significant risks to data security and privacy. This study aims to solve the problem by focusing on developing robust password strength estimation models using adversarial machine learning, a technique that trains models on intentionally crafted deceptive passwords to expose and address vulnerabilities posed by such passwords. We apply five classification algorithms and use a dataset with more than 670,000 samples of adversarial passwords to train the models. Results demonstrate that adversarial training improves password strength classification accuracy by up to 20% compared to traditional machine learning models. It highlights the importance of integrating adversarial machine learning into security systems to enhance their robustness against modern adaptive threats. Keywords: adversarial attack, password strength, classification, machine learning
- Abstract(参考訳): パスワードは、デジタル時代の機密データを保護する最も一般的な方法の1つである。
しかし、弱いパスワードの選択は、データセキュリティとプライバシに重大なリスクをもたらし続けている。
本研究の目的は、意図的に作られた偽造パスワードのモデルを訓練し、そのようなパスワードによって引き起こされる脆弱性を暴露し、対処する手法である逆機械学習を用いて、堅牢なパスワード強度推定モデルを開発することに集中することである。
5つの分類アルゴリズムを適用し、670,000以上の逆パスワードのサンプルを用いたデータセットを用いてモデルをトレーニングする。
その結果,従来の機械学習モデルと比較して,パスワード強度の分類精度を最大20%向上することがわかった。
現代の適応的脅威に対する堅牢性を高めるために、敵の機械学習をセキュリティシステムに統合することの重要性を強調している。
キーワード:敵攻撃、パスワード強度、分類、機械学習
関連論文リスト
- Password Strength Detection via Machine Learning: Analysis, Modeling, and Evaluation [0.8225825738565354]
本研究では,システムパスワードクラッキングのさまざまな方法を紹介し,パスワード防衛戦略の概要と,パスワードセキュリティの領域における機械学習の適用について論じる。
パスワードの長、桁数、文字数、小文字数、特殊文字数など、複数の特徴を抽出する。
論文 参考訳(メタデータ) (2025-05-22T09:27:40Z) - Universal Neural-Cracking-Machines: Self-Configurable Password Models
from Auxiliary Data [21.277402919534566]
ユニバーサルパスワードモデル(ユニバーサルパスワードモデル、Universal password model)は、ターゲットシステムに基づく推測戦略を適応させるパスワードモデルである。
これは、ユーザの補助情報、例えばメールアドレスをプロキシ信号として利用して、基盤となるパスワードの配布を予測する。
論文 参考訳(メタデータ) (2023-01-18T16:12:04Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - On Deep Learning in Password Guessing, a Survey [4.1499725848998965]
本稿では,ユーザのパスワード構造や組み合わせに関するドメイン知識や仮定を必要としない,深層学習に基づくパスワード推測手法について比較する。
非標的のオフライン攻撃によるパスワード推測におけるIWGANのバリエーションの利用に関する有望な実験的設計を提案する。
論文 参考訳(メタデータ) (2022-08-22T15:48:35Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Rethinking Clustering for Robustness [56.14672993686335]
ClusTRは、ロバストモデルを学ぶためのクラスタリングベースの、対向のないトレーニングフレームワークである。
textitClusTRは、強いPGD攻撃の下で、敵に訓練されたネットワークを最大4%上回ります。
論文 参考訳(メタデータ) (2020-06-13T16:55:51Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。