論文の概要: AI-Powered Spearphishing Cyber Attacks: Fact or Fiction?
- arxiv url: http://arxiv.org/abs/2502.00961v1
- Date: Mon, 03 Feb 2025 00:02:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:04:22.098886
- Title: AI-Powered Spearphishing Cyber Attacks: Fact or Fiction?
- Title(参考訳): AIでスパイ活動するサイバー攻撃:事実かフィクションか?
- Authors: Matthew Kemp, Harsha Kalutarage, M. Omar Al-Kadri,
- Abstract要約: ディープフェイク技術は、ある個人の類似性や声を、警告の精度で別の個人に置き換えることができる。
本稿では,この技術を悪意ある利用によって引き起こされる脅威について,特にスピアフィッシング攻撃の形で検討する。
ディープフェイク技術を使って、スピアフィッシングのような攻撃シナリオを作成し、平均的な個人に対して検証する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Due to society's continuing technological advance, the capabilities of machine learning-based artificial intelligence systems continue to expand and influence a wider degree of topics. Alongside this expansion of technology, there is a growing number of individuals willing to misuse these systems to defraud and mislead others. Deepfake technology, a set of deep learning algorithms that are capable of replacing the likeness or voice of one individual with another with alarming accuracy, is one of these technologies. This paper investigates the threat posed by malicious use of this technology, particularly in the form of spearphishing attacks. It uses deepfake technology to create spearphishing-like attack scenarios and validate them against average individuals. Experimental results show that 66% of participants failed to identify AI created audio as fake while 43% failed to identify such videos as fake, confirming the growing fear of threats posed by the use of these technologies by cybercriminals.
- Abstract(参考訳): 社会の技術的進歩により、機械学習ベースの人工知能システムの能力は拡大し、幅広い話題に影響を与え続けている。
テクノロジーの拡大とともに、これらのシステムを誤用して他人を欺いたり誤解させたりしようとする個人が増えている。
ディープフェイク技術(Deepfake technology)は、ある個人の類似性や声を警告精度で置き換えることのできる、ディープラーニングアルゴリズムのセットだ。
本稿では,この技術を悪意ある利用によって引き起こされる脅威について,特にスピアフィッシング攻撃の形で検討する。
ディープフェイク技術を使って、スピアフィッシングのような攻撃シナリオを作成し、平均的な個人に対して検証する。
実験の結果、参加者の66%がAIが作り出した音声を偽のものとして識別できず、43%が偽の動画を識別できず、サイバー犯罪者によるこれらの技術の使用による脅威の増大が確認された。
関連論文リスト
- Deepfake Media Forensics: State of the Art and Challenges Ahead [51.33414186878676]
AIが生成する合成メディア、別名Deepfakesは、エンターテイメントからサイバーセキュリティまで、多くの領域に影響を与えている。
ディープフェイク検出は、微妙な矛盾やアーティファクトを機械学習技術で識別することに焦点を当て、研究の不可欠な領域となっている。
本稿では,これらの課題に対処する主要なアルゴリズムについて,その利点,限界,今後の展望について検討する。
論文 参考訳(メタデータ) (2024-08-01T08:57:47Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Discussion Paper: The Threat of Real Time Deepfakes [7.714772499501984]
ディープフェイクは偽情報の拡散、詐欺、詐欺、無実の脅迫に使われている。
本稿では,この脅威がもたらす意味を論じ,これらの攻撃を防ぐための課題を特定し,より強力な防御策を研究するためのより良い方向性を提案する。
論文 参考訳(メタデータ) (2023-06-04T21:40:11Z) - Deep Fake Detection, Deterrence and Response: Challenges and
Opportunities [3.411353611073677]
カナダの組織の78%が2020年に少なくとも1回のサイバー攻撃を経験している。
専門家は、サイバー犯罪による世界的な損失が2025年までに年間10.5兆ドルに達すると予想している。
ディープフェイクはフェイクニュース、偽ニュース、リベンジポルノ、金融詐欺を制作する可能性に注意を向けた。
論文 参考訳(メタデータ) (2022-11-26T21:23:30Z) - Artificial Intelligence for Cybersecurity: Threats, Attacks and
Mitigation [1.80476943513092]
サイバー攻撃の激化は、最近の人工知能の進歩から反響を呼んだ。
AIの介入は特定のタスクを自動化するだけでなく、多くの折り畳みによって効率を向上させる。
本稿では,サイバー攻撃に対する従来的およびインテリジェントな防御方法とともに,サイバーセキュリティとサイバー脅威について論じる。
論文 参考訳(メタデータ) (2022-09-27T15:20:23Z) - DF-Captcha: A Deepfake Captcha for Preventing Fake Calls [7.714772499501984]
社会工学(社会工学、英: Social Engineering、SE)は、データ、情報、ネットワーク、さらにはお金へのアクセスを騙すことを目的とした詐欺の一種である。
ディープフェイク技術は、電話で誰かの声をクローンしたり、ビデオ通話で顔を再現したりするために、リアルタイムで展開することができる。
組織や個人がディープフェイクSE攻撃から守る軽量なアプリケーションを提案する。
論文 参考訳(メタデータ) (2022-08-17T20:40:54Z) - Using Deep Learning to Detecting Deepfakes [0.0]
ディープフェイク(Deepfakes)とは、ある人物の顔を別のコンピュータが生成した顔に置き換えるビデオまたは画像である。
このオンライン脅威に対抗するために、研究者たちはディープフェイクを検出するモデルを開発した。
本研究では、ディープラーニングアルゴリズムを用いて、この略奪的な脅威に対処する様々なディープフェイク検出モデルについて検討する。
論文 参考訳(メタデータ) (2022-07-27T17:05:16Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。