論文の概要: GlyphNet: Homoglyph domains dataset and detection using attention-based
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2306.10392v1
- Date: Sat, 17 Jun 2023 17:16:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 21:03:20.570817
- Title: GlyphNet: Homoglyph domains dataset and detection using attention-based
Convolutional Neural Networks
- Title(参考訳): glyphnet: 注意に基づく畳み込みニューラルネットワークを用いたホモグリフドメインデータセットと検出
- Authors: Akshat Gupta, Laxman Singh Tomar, Ridhima Garg
- Abstract要約: ホモグリフ攻撃は、合法的なドメインと区別しにくい非合法なドメインを生成する。
既存のアプローチでは、一次言語に基づくタスクに適用される単純な文字列ベースの比較手法が使用されている。
我々のモデルでは、データセット上の0.93AUCでホモグリフ攻撃を検出する際に、最先端の精度に到達できることが示される。
- 参考スコア(独自算出の注目度): 1.0312968200748118
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cyber attacks deceive machines into believing something that does not exist
in the first place. However, there are some to which even humans fall prey. One
such famous attack that attackers have used over the years to exploit the
vulnerability of vision is known to be a Homoglyph attack. It employs a primary
yet effective mechanism to create illegitimate domains that are hard to
differentiate from legit ones. Moreover, as the difference is pretty
indistinguishable for a user to notice, they cannot stop themselves from
clicking on these homoglyph domain names. In many cases, that results in either
information theft or malware attack on their systems. Existing approaches use
simple, string-based comparison techniques applied in primary language-based
tasks. Although they are impactful to some extent, they usually fail because
they are not robust to different types of homoglyphs and are computationally
not feasible because of their time requirement proportional to the string
length. Similarly, neural network-based approaches are employed to determine
real domain strings from fake ones. Nevertheless, the problem with both methods
is that they require paired sequences of real and fake domain strings to work
with, which is often not the case in the real world, as the attacker only sends
the illegitimate or homoglyph domain to the vulnerable user. Therefore,
existing approaches are not suitable for practical scenarios in the real world.
In our work, we created GlyphNet, an image dataset that contains 4M domains,
both real and homoglyphs. Additionally, we introduce a baseline method for a
homoglyph attack detection system using an attention-based convolutional Neural
Network. We show that our model can reach state-of-the-art accuracy in
detecting homoglyph attacks with a 0.93 AUC on our dataset.
- Abstract(参考訳): サイバー攻撃はマシンを欺き、そもそも存在しないものを信じさせる。
しかし、人間でさえ獲物になるものもある。
視覚の脆弱性を悪用するために長年にわたって攻撃してきた有名な攻撃は、ホモグリフ攻撃として知られている。
正当なドメインとは区別が難しい非正規ドメインを作成するために、プライマリだが効果的なメカニズムを採用している。
さらに、ユーザが気付くのは、その違いがかなり区別できないため、これらのホモグリフドメイン名をクリックするのを止めることはできない。
多くの場合、それは彼らのシステムに情報盗難またはマルウェア攻撃をもたらす。
既存のアプローチでは、単純な文字列ベースの比較技術がプライマリ言語ベースのタスクに適用されている。
ある程度は影響があるが、それらは通常、異なる種類のホモグリフに頑健ではなく、弦の長さに比例する時間要件のため計算上は実現できないため失敗する。
同様に、ニューラルネットワークベースのアプローチを使用して、偽の文字列から実際のドメイン文字列を決定する。
それでも、両方のメソッドの問題は、実際のドメイン文字列と偽のドメイン文字列のペアシーケンスを連携させる必要があることだ。
したがって、既存のアプローチは現実世界の実践シナリオには適していない。
私たちの研究では、実とホモグリフの両方の4mドメインを含む画像データセットであるglyphnetを作成しました。
さらに,注目に基づく畳み込みニューラルネットワークを用いたホモグリフ攻撃検出システムのベースライン手法を提案する。
その結果,本モデルでは0.93 aucでホモグリフ攻撃を検出できることがわかった。
関連論文リスト
- The Devil is in the Conflict: Disentangled Information Graph Neural
Networks for Fraud Detection [17.254383007779616]
性能劣化は主にトポロジと属性の矛盾に起因すると我々は主張する。
注意機構を用いて2つの視点を適応的に融合する簡易かつ効果的な手法を提案する。
我々のモデルは、実世界の不正検出データセットで最先端のベースラインを大幅に上回ることができる。
論文 参考訳(メタデータ) (2022-10-22T08:21:49Z) - BAARD: Blocking Adversarial Examples by Testing for Applicability,
Reliability and Decidability [12.079529913120593]
敵防衛は、機械学習モデルを敵攻撃から保護するが、しばしばある種類のモデルや攻撃に適合する。
ケミノフォマティクスにおける応用可能性ドメインの概念から着想を得た。
本稿では,グローバルかつローカルにインプットをチェックする,シンプルで堅牢な3段階データ駆動フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-02T15:24:33Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - A Free Lunch for Unsupervised Domain Adaptive Object Detection without
Source Data [69.091485888121]
教師なしドメイン適応(unsupervised domain adaptation) ソースとターゲットのドメインデータは自由に利用でき、通常、ドメイン間のギャップを減らすために一緒に訓練される。
ノイズの多いラベルで学習する問題にモデル化することで,ソースデータのないドメイン適応オブジェクト検出(SFOD)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-10T01:42:35Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Weaponizing Unicodes with Deep Learning -- Identifying Homoglyphs with
Weakly Labeled Data [11.434810426156877]
視覚的に類似した文字(ホモグリフ)は、社会工学的な攻撃やスパムや盗作検知の回避に使用できる。
本研究では, 学習, 移動学習, 拡張モデルについて検討し, ホモグリフの可能性を同定する。
また、我々のモデルを用いて8000以上の未知のホモスグリフを予測し、多くのものが真の正であることを示す良い早期の兆候を見出す。
論文 参考訳(メタデータ) (2020-10-09T06:03:18Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - PhishGAN: Data Augmentation and Identification of Homoglpyh Attacks [0.0]
ホモグリフ攻撃(Homoglyph attack)は、ハッカーがフィッシングを行うのに使われる一般的なテクニックである。実際のフィッシングと視覚的に類似したドメイン名やリンクは、攻撃を難読化するためにペニーコードによって生成される。
本稿では,ヒエログリフの画像を生成するために,条件付き生成適応ネットワーク(GAN)であるPhishGANを用いる方法を示す。
論文 参考訳(メタデータ) (2020-06-24T13:59:09Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。