論文の概要: Reducing Bias in Modeling Real-world Password Strength via Deep Learning
and Dynamic Dictionaries
- arxiv url: http://arxiv.org/abs/2010.12269v5
- Date: Fri, 26 Feb 2021 08:41:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 00:04:12.312729
- Title: Reducing Bias in Modeling Real-world Password Strength via Deep Learning
and Dynamic Dictionaries
- Title(参考訳): ディープラーニングと動的辞書による実世界のパスワード強度モデリングにおけるバイアス低減
- Authors: Dario Pasquini, Marco Cianfriglia, Giuseppe Ateniese, Massimo
Bernaschi
- Abstract要約: 我々は、不適切な設定に対して一貫して回復力のある、新しい世代の辞書攻撃を導入する。
監視やドメイン知識を必要としないこのテクニックは、現実世界の攻撃者が採用する高度な推測戦略を、自動的に近似する。
我々の手法は、辞書攻撃におけるより堅牢で健全なパスワード強度推定を可能にし、最終的にはパスワードセキュリティにおける現実世界の脅威をモデル化する過大評価を減らす。
- 参考スコア(独自算出の注目度): 13.436368800886479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Password security hinges on an in-depth understanding of the techniques
adopted by attackers. Unfortunately, real-world adversaries resort to pragmatic
guessing strategies such as dictionary attacks that are inherently difficult to
model in password security studies. In order to be representative of the actual
threat, dictionary attacks must be thoughtfully configured and tuned. However,
this process requires a domain-knowledge and expertise that cannot be easily
replicated. The consequence of inaccurately calibrating dictionary attacks is
the unreliability of password security analyses, impaired by a severe
measurement bias.
In the present work, we introduce a new generation of dictionary attacks that
is consistently more resilient to inadequate configurations. Requiring no
supervision or domain-knowledge, this technique automatically approximates the
advanced guessing strategies adopted by real-world attackers. To achieve this:
(1) We use deep neural networks to model the proficiency of adversaries in
building attack configurations. (2) Then, we introduce dynamic guessing
strategies within dictionary attacks. These mimic experts' ability to adapt
their guessing strategies on the fly by incorporating knowledge on their
targets.
Our techniques enable more robust and sound password strength estimates
within dictionary attacks, eventually reducing overestimation in modeling
real-world threats in password security. Code available:
https://github.com/TheAdamProject/adams
- Abstract(参考訳): パスワードのセキュリティは、攻撃者が採用するテクニックの深い理解にかかっている。
残念ながら、現実の敵は、パスワードセキュリティ研究において本質的にモデル化が難しい辞書攻撃のような実用的推測戦略に頼っている。
実際の脅威を表現するためには、辞書攻撃を慎重に設定し調整する必要がある。
しかし、このプロセスは容易に複製できないドメイン知識と専門知識を必要とする。
辞書攻撃を不正確に校正した結果、深刻な測定バイアスにより、パスワードセキュリティ分析の信頼性が低下する。
本稿では,不適切な構成に対して一貫してレジリエントな新世代の辞書攻撃を提案する。
監視やドメイン知識を必要としないこの手法は、現実世界の攻撃者が採用する高度な推測戦略を自動的に近似する。
1)攻撃構成構築における敵の熟練度をモデル化するために,ディープニューラルネットワークを用いる。
次に,辞書攻撃における動的推測戦略を提案する。
これらは、目標に知識を取り入れることで、専門家の推測戦略をその場で適応させる能力を模倣している。
我々の手法は、辞書攻撃におけるより堅牢で健全なパスワード強度推定を可能にし、最終的にはパスワードセキュリティにおける現実世界の脅威をモデル化する過大評価を減らす。
コード提供: https://github.com/TheAdamProject/adams
関連論文リスト
- Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Detecting Backdoors in Deep Text Classifiers [43.36440869257781]
本稿では,テキスト分類モデルに対するバックドア攻撃を一般化する,最初の堅牢な防御機構を提案する。
我々の技術は、データ中毒や重毒など、最先端のバックドア攻撃に対する防御に極めて正確です。
論文 参考訳(メタデータ) (2022-10-11T07:48:03Z) - On Deep Learning in Password Guessing, a Survey [4.1499725848998965]
本稿では,ユーザのパスワード構造や組み合わせに関するドメイン知識や仮定を必要としない,深層学習に基づくパスワード推測手法について比較する。
非標的のオフライン攻撃によるパスワード推測におけるIWGANのバリエーションの利用に関する有望な実験的設計を提案する。
論文 参考訳(メタデータ) (2022-08-22T15:48:35Z) - GNPassGAN: Improved Generative Adversarial Networks For Trawling Offline
Password Guessing [5.165256397719443]
本稿では,深層学習に基づくパスワード推測手法について概説する。
また、GNPassGANも導入している。GNPassGANは、オフライン攻撃をトロールするジェネレーティブな敵ネットワーク上に構築されたパスワード推測ツールだ。
最先端のPassGANモデルと比較して、GNPassGANは88.03%以上のパスワードを推測し、31.69%の重複を発生させることができる。
論文 参考訳(メタデータ) (2022-08-14T23:51:52Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Defense of Word-level Adversarial Attacks via Random Substitution
Encoding [0.5964792400314836]
コンピュータビジョンタスクにおけるディープニューラルネットワークに対する敵対的な攻撃は、モデルを保護するための多くの新しい技術を生み出しました。
近年、自然言語処理(NLP)タスクの深層モデルに対する単語レベルの敵対攻撃は、例えば、感情分類ニューラルネットワークを騙して誤った判断を下すなど、強力な力を示している。
本稿ではランダム置換(Random Substitution RSE)という,ニューラルネットワークのトレーニングプロセスにランダム置換を導入する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-01T15:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。