論文の概要: PhishGAN: Data Augmentation and Identification of Homoglpyh Attacks
- arxiv url: http://arxiv.org/abs/2006.13742v3
- Date: Mon, 28 Sep 2020 09:04:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 10:17:05.985790
- Title: PhishGAN: Data Augmentation and Identification of Homoglpyh Attacks
- Title(参考訳): PhishGAN:homoglpyh攻撃のデータの増大と同定
- Authors: Joon Sern Lee, Gui Peng David Yam, Jin Hao Chan
- Abstract要約: ホモグリフ攻撃(Homoglyph attack)は、ハッカーがフィッシングを行うのに使われる一般的なテクニックである。実際のフィッシングと視覚的に類似したドメイン名やリンクは、攻撃を難読化するためにペニーコードによって生成される。
本稿では,ヒエログリフの画像を生成するために,条件付き生成適応ネットワーク(GAN)であるPhishGANを用いる方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Homoglyph attacks are a common technique used by hackers to conduct phishing.
Domain names or links that are visually similar to actual ones are created via
punycode to obfuscate the attack, making the victim more susceptible to
phishing. For example, victims may mistake "|inkedin.com" for "linkedin.com"
and in the process, divulge personal details to the fake website. Current State
of The Art (SOTA) typically make use of string comparison algorithms (e.g.
Levenshtein Distance), which are computationally heavy. One reason for this is
the lack of publicly available datasets thus hindering the training of more
advanced Machine Learning (ML) models. Furthermore, no one font is able to
render all types of punycode correctly, posing a significant challenge to the
creation of a dataset that is unbiased toward any particular font. This coupled
with the vast number of internet domains pose a challenge in creating a dataset
that can capture all possible variations. Here, we show how a conditional
Generative Adversarial Network (GAN), PhishGAN, can be used to generate images
of hieroglyphs, conditioned on non-homoglpyh input text images. Practical
changes to current SOTA were required to facilitate the generation of more
varied homoglyph text-based images. We also demonstrate a workflow of how
PhishGAN together with a Homoglyph Identifier (HI) model can be used to
identify the domain the homoglyph was trying to imitate. Furthermore, we
demonstrate how PhishGAN's ability to generate datasets on the fly facilitate
the quick adaptation of cybersecurity systems to detect new threats as they
emerge.
- Abstract(参考訳): ホモグリフ攻撃は、ハッカーがフィッシングを行うのに使われる一般的なテクニックである。
実際のものと視覚的に類似したドメイン名やリンクは、攻撃を妨害するためにpunycodeによって作成され、被害者はフィッシングの影響を受けやすくなります。
例えば、被害者は「|inkedin.com」を「linkedin.com」と間違え、その過程で偽のウェブサイトに個人情報を漏らすことがある。
現状 The Art (SOTA) は通常、計算量の多い文字列比較アルゴリズム(例:Levenshtein Distance)を使用する。
この理由の1つは、公開データセットがないため、より高度な機械学習(ML)モデルのトレーニングを妨げている。
さらに、どのフォントもすべてのタイプのポニーコードを正しくレンダリングすることはできず、特定のフォントに対して偏りのないデータセットの作成に重大な課題となる。
膨大な数のインターネットドメインと組み合わせることで、可能なすべてのバリエーションをキャプチャできるデータセットの作成が難しくなる。
本稿では,FhishGANという条件付き生成適応ネットワークを用いて,非ホモグルピー入力テキスト画像に条件付きヒエログリフの画像を生成する方法を示す。
現在のSOTAへの実践的な変更は、より多様なホモグリフテキストベースの画像の生成を容易にするために必要だった。
また、PhishGANとHymoglyph Identifier(HI)モデルとの併用により、ホモグリフが模倣しようとしているドメインを識別するワークフローを実証する。
さらに、PhishGANのデータセットをオンザフライで生成する能力が、サイバーセキュリティシステムの迅速な適応を促進して、新たな脅威が出現するのを検出する方法を示す。
関連論文リスト
- Mitigating Bias in Machine Learning Models for Phishing Webpage Detection [0.8050163120218178]
フィッシングはよく知られたサイバー攻撃であり、フィッシングウェブページの作成と対応するURLの拡散を中心に展開している。
独自の属性を蒸留し、予測モデルを構築することで、ゼロデイフィッシングURLをプリエンプティブに分類する様々な技術が利用可能である。
この提案は、フィッシング検出ソリューション内の永続的な課題、特に包括的なデータセットを組み立てる予備フェーズに集中している。
本稿では,MLモデルのバイアスを軽減するために開発されたツールの形で,潜在的な解決策を提案する。
論文 参考訳(メタデータ) (2024-01-16T13:45:54Z) - Learned representation-guided diffusion models for large-image generation [58.192263311786824]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - GlyphNet: Homoglyph domains dataset and detection using attention-based
Convolutional Neural Networks [1.0312968200748118]
ホモグリフ攻撃は、合法的なドメインと区別しにくい非合法なドメインを生成する。
既存のアプローチでは、一次言語に基づくタスクに適用される単純な文字列ベースの比較手法が使用されている。
我々のモデルでは、データセット上の0.93AUCでホモグリフ攻撃を検出する際に、最先端の精度に到達できることが示される。
論文 参考訳(メタデータ) (2023-06-17T17:16:53Z) - Diffusion-Based Adversarial Sample Generation for Improved Stealthiness
and Controllability [62.105715985563656]
そこで本研究では,現実的な対向サンプルを生成するための拡散型射影勾配 Descent (Diff-PGD) という新しいフレームワークを提案する。
我々のフレームワークは、デジタルアタック、物理世界アタック、スタイルベースのアタックなど、特定のタスクに簡単にカスタマイズできる。
論文 参考訳(メタデータ) (2023-05-25T21:51:23Z) - Pseudo Label-Guided Model Inversion Attack via Conditional Generative
Adversarial Network [102.21368201494909]
モデル反転(MI)攻撃はプライバシーに対する懸念を高めている。
近年のMI攻撃では,探索空間を狭める前にGAN(Generative Adversarial Network)を画像として活用している。
我々は条件付きGAN(cGAN)による擬似ラベル誘導MI(PLG-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2023-02-20T07:29:34Z) - A new weighted ensemble model for phishing detection based on feature
selection [0.0]
フィッシングウェブサイトの識別は、これらの暴行の犠牲者になるのを避けるために訪問者を支援することができる。
我々は,複数のベースモデルと重みに基づく投票手法を組み合わせたアンサンブルモデルを提案する。
論文 参考訳(メタデータ) (2022-12-15T23:15:36Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - Weaponizing Unicodes with Deep Learning -- Identifying Homoglyphs with
Weakly Labeled Data [11.434810426156877]
視覚的に類似した文字(ホモグリフ)は、社会工学的な攻撃やスパムや盗作検知の回避に使用できる。
本研究では, 学習, 移動学習, 拡張モデルについて検討し, ホモグリフの可能性を同定する。
また、我々のモデルを用いて8000以上の未知のホモスグリフを予測し、多くのものが真の正であることを示す良い早期の兆候を見出す。
論文 参考訳(メタデータ) (2020-10-09T06:03:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。