論文の概要: DF-Captcha: A Deepfake Captcha for Preventing Fake Calls
- arxiv url: http://arxiv.org/abs/2208.08524v1
- Date: Wed, 17 Aug 2022 20:40:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:17:53.928200
- Title: DF-Captcha: A Deepfake Captcha for Preventing Fake Calls
- Title(参考訳): df-captcha:偽の呼び出しを防ぐディープフェイクcaptcha
- Authors: Yisroel Mirsky
- Abstract要約: 社会工学(社会工学、英: Social Engineering、SE)は、データ、情報、ネットワーク、さらにはお金へのアクセスを騙すことを目的とした詐欺の一種である。
ディープフェイク技術は、電話で誰かの声をクローンしたり、ビデオ通話で顔を再現したりするために、リアルタイムで展開することができる。
組織や個人がディープフェイクSE攻撃から守る軽量なアプリケーションを提案する。
- 参考スコア(独自算出の注目度): 7.714772499501984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social engineering (SE) is a form of deception that aims to trick people into
giving access to data, information, networks and even money. For decades SE has
been a key method for attackers to gain access to an organization, virtually
skipping all lines of defense. Attackers also regularly use SE to scam innocent
people by making threatening phone calls which impersonate an authority or by
sending infected emails which look like they have been sent from a loved one.
SE attacks will likely remain a top attack vector for criminals because humans
are the weakest link in cyber security.
Unfortunately, the threat will only get worse now that a new technology
called deepfakes as arrived. A deepfake is believable media (e.g., videos)
created by an AI. Although the technology has mostly been used to swap the
faces of celebrities, it can also be used to `puppet' different personas.
Recently, researchers have shown how this technology can be deployed in
real-time to clone someone's voice in a phone call or reenact a face in a video
call. Given that any novice user can download this technology to use it, it is
no surprise that criminals have already begun to monetize it to perpetrate
their SE attacks.
In this paper, we propose a lightweight application which can protect
organizations and individuals from deepfake SE attacks. Through a challenge and
response approach, we leverage the technical and theoretical limitations of
deepfake technologies to expose the attacker. Existing defence solutions are
too heavy as an end-point solution and can be evaded by a dynamic attacker. In
contrast, our approach is lightweight and breaks the reactive arms race,
putting the attacker at a disadvantage.
- Abstract(参考訳): ソーシャルエンジニアリング(se、social engineering)は、データ、情報、ネットワーク、さらにはお金へのアクセスを人々を騙すことを目的としている。
何十年もの間、SEは攻撃者が組織にアクセスするための重要な方法であり、事実上すべての防衛線をスキップしてきた。
攻撃者はSEを使って、当局を偽装する脅迫電話や、愛する人から送られてきたような感染したメールを送ることで、罪のない人々を攻撃している。
SE攻撃は、サイバーセキュリティにおける最も弱いリンクであるため、犯罪者にとってトップアタックベクターであり続けるだろう。
残念なことに、deepfakesと呼ばれる新しいテクノロジーが登場すれば、脅威はますます悪化するだろう。
ディープフェイク(英: Deepfake)とは、AIが生成したメディア(例えばビデオ)である。
この技術は主に有名人の顔の入れ替えに使われているが、異なるペルソナの「パペット」にも使える。
最近、研究者は、この技術をリアルタイムで展開して、電話で誰かの声をクローンしたり、ビデオ通話で顔を再現したりできることを示した。
初心者のユーザーがこの技術をダウンロードして利用できることを考えると、犯罪者が既にSE攻撃を加害するために収益化を始めていることは驚くにあたらない。
本稿では,組織や個人をディープフェイクse攻撃から守るための軽量アプリケーションを提案する。
チャレンジとレスポンスのアプローチを通じて、ディープフェイク技術の技術的および理論的制限を活用して攻撃者を暴露する。
既存の防御ソリューションはエンドポイントソリューションとしては重すぎて、動的攻撃者によって回避できる。
対照的に、我々のアプローチは軽量であり、リアクティブアームレースを破り、攻撃者を不利にする。
関連論文リスト
- On the Feasibility of Fully AI-automated Vishing Attacks [4.266087132777785]
ヴァイシング攻撃は社会工学の一形態であり、攻撃者は個人を騙して機密情報を開示するために電話をかける。
我々は、AIの出現とともに、ヴァイシング攻撃がエスカレートする可能性について研究する。
我々は、公開AI技術を用いて開発されたAIを利用したバイシングシステムであるViKingを紹介する。
論文 参考訳(メタデータ) (2024-09-20T10:47:09Z) - Cyber Deception Reactive: TCP Stealth Redirection to On-Demand Honeypots [0.0]
サイバー詐欺(Cyber Deception, CYDEC)とは、敵が騙されていることを知らずに行動を起こすことを欺くこと。
本稿では,オンデマンドハニーサーバへのTCP通信のステルスリダイレクトに基づく偽装機構の設計,実装,評価を行う。
論文 参考訳(メタデータ) (2024-02-14T14:15:21Z) - Turn Fake into Real: Adversarial Head Turn Attacks Against Deepfake
Detection [58.1263969438364]
本稿では,3次元対向顔視によるディープフェイク検出器に対する最初の試みとして,対向頭部旋回(AdvHeat)を提案する。
実験では、現実的なブラックボックスシナリオにおいて、様々な検出器のAdvHeatに対する脆弱性を検証する。
さらなる分析により、AdvHeatは、クロス検出器転送性と防御に対する堅牢性の両方に対する従来の攻撃よりも優れていることが示されている。
論文 参考訳(メタデータ) (2023-09-03T07:01:34Z) - Discussion Paper: The Threat of Real Time Deepfakes [7.714772499501984]
ディープフェイクは偽情報の拡散、詐欺、詐欺、無実の脅迫に使われている。
本稿では,この脅威がもたらす意味を論じ,これらの攻撃を防ぐための課題を特定し,より強力な防御策を研究するためのより良い方向性を提案する。
論文 参考訳(メタデータ) (2023-06-04T21:40:11Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Deepfake CAPTCHA: A Method for Preventing Fake Calls [5.810459869589559]
リアルタイムディープフェイク対策としてD-CAPTCHAを提案する。
アプローチは、ディープフェイクモデルに挑戦して、その能力を超えるコンテンツを生成することで、相手をスポットライトに強制することである。
既存のCAPTCHAとは対照的に、コンテンツを分類する能力とは対照的に、コンテンツを作成するAIの能力に挑戦する。
論文 参考訳(メタデータ) (2023-01-08T15:34:19Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Attacker Attribution of Audio Deepfakes [5.070542698701158]
ディープフェイクは、しばしば悪意のある意図で考案された合成メディアである。
最近の研究は、音声が本物か偽物かを予測するディープフェイク検出に限られている。
これは、帰属(誰が偽物を作ったのか?)がより大きな防衛戦略の重要な構成要素であるという事実にもかかわらずである。
論文 参考訳(メタデータ) (2022-03-28T09:25:31Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - ONION: A Simple and Effective Defense Against Textual Backdoor Attacks [91.83014758036575]
バックドア攻撃は、ディープニューラルネットワーク(DNN)に対する創発的な訓練時間の脅威である
本論文では,ONION という,シンプルで効果的なテキストバックドア・ディフェンスを提案する。
実験では,5種類のバックドア攻撃に対するBiLSTMとBERTの防御効果を示す。
論文 参考訳(メタデータ) (2020-11-20T12:17:21Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。