論文の概要: Sound-skwatter (Did You Mean: Sound-squatter?) AI-powered Generator for
Phishing Prevention
- arxiv url: http://arxiv.org/abs/2310.07005v1
- Date: Tue, 10 Oct 2023 20:36:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 02:43:39.262869
- Title: Sound-skwatter (Did You Mean: Sound-squatter?) AI-powered Generator for
Phishing Prevention
- Title(参考訳): 消音器(ダイド・ユー・ミーン:サウンドスクワット?)AIを利用した除草用発電機
- Authors: Rodolfo Valentim and Idilio Drago and Marco Mellia and Federico
Cerutti
- Abstract要約: サウンドスクワット(Sound-squatting)は、単語の発音の類似性を利用して、悪意のあるリソースにユーザーを騙すフィッシング攻撃である。
本稿では,能動防御のための音響スクワット候補を生成する多言語AIシステムSound-skwatterを紹介する。
- 参考スコア(独自算出の注目度): 6.383640665055313
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sound-squatting is a phishing attack that tricks users into malicious
resources by exploiting similarities in the pronunciation of words. Proactive
defense against sound-squatting candidates is complex, and existing solutions
rely on manually curated lists of homophones. We here introduce Sound-skwatter,
a multi-language AI-based system that generates sound-squatting candidates for
proactive defense. Sound-skwatter relies on an innovative multi-modal
combination of Transformers Networks and acoustic models to learn sound
similarities. We show that Sound-skwatter can automatically list known
homophones and thousands of high-quality candidates. In addition, it covers
cross-language sound-squatting, i.e., when the reader and the listener speak
different languages, supporting any combination of languages. We apply
Sound-skwatter to network-centric phishing via squatted domain names. We find ~
10% of the generated domains exist in the wild, the vast majority unknown to
protection solutions. Next, we show attacks on the PyPI package manager, where
~ 17% of the popular packages have at least one existing candidate. We believe
Sound-skwatter is a crucial asset to mitigate the sound-squatting phenomenon
proactively on the Internet. To increase its impact, we publish an online demo
and release our models and code as open source.
- Abstract(参考訳): サウンドスクワット(Sound-squatting)は、単語の発音の類似性を利用して悪意あるリソースを騙すフィッシング攻撃である。
サウンドスキャッティング候補に対する積極的な防御は複雑であり、既存のソリューションは手作業によるホモフォンのリストに依存している。
本稿では,多言語AIベースのシステムであるSound-skwatterを紹介する。
sound-skwatterは、トランスフォーマーネットワークと音響モデルの革新的なマルチモーダル組み合わせを使って音の類似性を学ぶ。
sound-skwatterは、既知のホモフォンや何千もの高品質な候補を自動的にリストアップできる。
さらに、読み手と聞き手が異なる言語を話し、いかなる言語の組み合わせもサポートしている場合に、クロスランゲージのサウンドスクワットをカバーしている。
ネットワーク中心のフィッシングに対して,squated domain nameを用いたサウンドスクワッタを適用する。
生成したドメインの10%が野生に存在し、その大部分は保護ソリューションとして知られていません。
次に、人気パッケージの約17%が少なくとも1つの候補を持っているpypiパッケージマネージャへの攻撃を示す。
われわれはSound-skwatterが、インターネット上で積極的にサウンドスクワット現象を緩和するための重要な資産であると信じている。
インパクトを高めるために、オンラインデモを公開し、モデルとコードをオープンソースとしてリリースします。
関連論文リスト
- VALL-E R: Robust and Efficient Zero-Shot Text-to-Speech Synthesis via Monotonic Alignment [101.2489492032816]
VALL-E Rは、堅牢で効率的なゼロショットテキスト音声合成システムである。
この研究は、失語症に罹患した人々のためのスピーチの作成を含む有意義なプロジェクトに適用される可能性がある。
論文 参考訳(メタデータ) (2024-06-12T04:09:44Z) - AudioPaLM: A Large Language Model That Can Speak and Listen [79.44757696533709]
本稿では,音声理解・生成のための大規模言語モデルであるAudioPaLMを紹介する。
AudioPaLMはテキストベースの言語モデルと音声ベースの言語モデルを融合する。
音声認識や音声音声翻訳などの応用により、テキストと音声を処理および生成することができる。
論文 参考訳(メタデータ) (2023-06-22T14:37:54Z) - Dictionary Attacks on Speaker Verification [15.00667613025837]
様々な音声表現と脅威モデルで使用できる攻撃の汎用的定式化を導入する。
攻撃者は、逆最適化を用いて、シード音声サンプルとプロキシ集団との話者埋め込みの生の類似性を最大化する。
この攻撃は、複数の試みと組み合わさって、これらのシステムのセキュリティに関する深刻な問題にさらに開きます。
論文 参考訳(メタデータ) (2022-04-24T15:31:41Z) - DeepFry: Identifying Vocal Fry Using Deep Neural Networks [16.489251286870704]
声質フライ(Vocal fry)は、不規則な声門の開口と低ピッチを特徴とする声質を指す。
不規則な周期性のため、難解な音声は自動音声認識システムに挑戦する。
本稿では,流速音声における難解な音声を検出するためのディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:23:24Z) - Speaker-Conditioned Hierarchical Modeling for Automated Speech Scoring [60.55025339250815]
本研究では、話者条件付き階層型モデリングと呼ばれる非ネイティブASSのための新しいディープラーニング手法を提案する。
本手法では, 口腔熟練度テストが候補に対して複数の応答を評価できるという事実を生かして, 候補に対して複数の応答を評価できる。これらの応答からコンテキストを抽出し, ネットワークに付加的な話者固有のコンテキストとして与えて, 特定の応答をスコアする。
論文 参考訳(メタデータ) (2021-08-30T07:00:28Z) - Audio Adversarial Examples: Attacks Using Vocal Masks [0.0]
自動音声テキストシステム上での音声対向例を構築した。
我々は、オリジナル音声から生成された音声のボーカルマスクをオーバーレイすることで、別の音声を生成する。
We apply our audio adversarial attack to five SOTA STT system: DeepSpeech, Julius, Kaldi, wav2letter@anywhere and CMUSphinx。
論文 参考訳(メタデータ) (2021-02-04T05:21:10Z) - Cortical Features for Defense Against Adversarial Audio Attacks [55.61885805423492]
本稿では,聴覚野の計算モデルを用いて,音声に対する敵対的攻撃に対する防御手法を提案する。
また,大脳皮質の特徴は,普遍的な敵の例に対する防御に有効であることを示す。
論文 参考訳(メタデータ) (2021-01-30T21:21:46Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z) - Private Speech Classification with Secure Multiparty Computation [15.065527713259542]
深層学習に基づく音声分類のための最初のプライバシ保護ソリューションを提案する。
我々のアプローチでは、BobがAliceの音声信号を暗号化されていない方法で見ることなく、あるパーティの音声信号を別のパーティのディープニューラルネットワークで分類することができる。
畳み込みニューラルネットワークを用いた音声からのプライバシー保護感情検出のユースケースとして,提案手法の効率・セキュリティ・正確性トレードオフを評価する。
論文 参考訳(メタデータ) (2020-07-01T05:26:06Z) - Multi-task self-supervised learning for Robust Speech Recognition [75.11748484288229]
本稿では,雑音および残響環境下での頑健な音声認識のためのPASE+を提案する。
我々は、様々なランダムな乱れで入力信号を汚染するオンライン音声歪みモジュールを用いる。
次に,再帰型ネットワークと畳み込み型ネットワークを効率よく組み合わせて,短時間および長期の音声力学をよりよく学習する改良型エンコーダを提案する。
論文 参考訳(メタデータ) (2020-01-25T00:24:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。