論文の概要: AI-Powered GUI Attack and Its Defensive Methods
- arxiv url: http://arxiv.org/abs/2001.09388v1
- Date: Sun, 26 Jan 2020 02:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 19:27:05.466524
- Title: AI-Powered GUI Attack and Its Defensive Methods
- Title(参考訳): AIによるGUI攻撃とその防御方法
- Authors: Ning Yu, Zachary Tuttle, Carl Jake Thurnau, Emmanuel Mireku
- Abstract要約: 人工知能を利用した悪意あるマルウェアが、GUI(Graphical User Interface)システムへの脅威として浮上している。
その結果、現在のAI技術に基づいて、ジェネリックGUIアタックを実装し、簡単な方法で実行できることが示されている。
- 参考スコア(独自算出の注目度): 4.119667141491311
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the first Graphical User Interface (GUI) prototype was invented in the
1970s, GUI systems have been deployed into various personal computer systems
and server platforms. Recently, with the development of artificial intelligence
(AI) technology, malicious malware powered by AI is emerging as a potential
threat to GUI systems. This type of AI-based cybersecurity attack, targeting at
GUI systems, is explored in this paper. It is twofold: (1) A malware is
designed to attack the existing GUI system by using AI-based object recognition
techniques. (2) Its defensive methods are discovered by generating adversarial
examples and other methods to alleviate the threats from the intelligent GUI
attack. The results have shown that a generic GUI attack can be implemented and
performed in a simple way based on current AI techniques and its
countermeasures are temporary but effective to mitigate the threats of GUI
attack so far.
- Abstract(参考訳): 1970年代に最初のGUIプロトタイプが発明されて以来、GUIシステムは様々なパーソナルコンピュータシステムやサーバプラットフォームにデプロイされてきた。
近年、人工知能(AI)技術の発展に伴い、GUIシステムに対する潜在的な脅威としてAIを利用した悪意のあるマルウェアが出現している。
本稿では,GUIシステムを対象としたAIベースのサイバーセキュリティ攻撃について検討する。
1)AIベースのオブジェクト認識技術を用いて,既存のGUIシステムを攻撃するマルウェアを設計する。
(2)その防御方法は、知的gui攻撃からの脅威を軽減するための敵の例やその他の方法を生成して発見する。
その結果、現在のAI技術に基づいて、汎用的なGUIアタックを簡単な方法で実装、実行できることが示され、その対策は一時的ではあるが、これまでのGUIアタックの脅威を軽減する効果があることがわかった。
関連論文リスト
- Is Generative AI the Next Tactical Cyber Weapon For Threat Actors? Unforeseen Implications of AI Generated Cyber Attacks [0.0]
本稿では,AIの誤用によるエスカレート脅威,特にLarge Language Models(LLMs)の使用について述べる。
一連の制御された実験を通じて、これらのモデルがどのようにして倫理的およびプライバシー保護を回避し、効果的にサイバー攻撃を発生させるかを実証する。
私たちはまた、サイバー攻撃の自動化と実行のために特別に設計されたカスタマイズされた微調整のLLMであるOccupy AIを紹介します。
論文 参考訳(メタデータ) (2024-08-23T02:56:13Z) - ADMIn: Attacks on Dataset, Model and Input. A Threat Model for AI Based Software [0.0]
AIベースのソフトウェアに対する脅威を明らかにするために使用できる脅威モデルを提案する。
脅威モデルは、AIベースのソフトウェアのためのソフトウェア開発プロセスのモデルと攻撃分類の2つの主要な部分から構成される。
2つの実生活AIベースのソフトウェアに脅威モデルを適用し、見つかったプロセスと脅威について議論する。
論文 参考訳(メタデータ) (2024-01-15T20:55:21Z) - AI-based Attack Graph Generation [7.282532608209566]
攻撃グラフはネットワーク内のセキュリティ脅威を評価するために広く利用されている。
ネットワークがスケールするにつれて、攻撃グラフの生成が時間を要するようになると、欠点が生じる。
AIモデルを利用することで、アタックグラフを短時間で作成し、最適な結果を近似することができる。
論文 参考訳(メタデータ) (2023-11-24T08:35:16Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - The State-of-the-Art in AI-Based Malware Detection Techniques: A Review [0.0]
このレビューは、マルウェアの検出と防止に使用される最先端のAI技術の概要を明らかにすることを目的としている。
研究対象のアルゴリズムは、浅層学習、深層学習、バイオインスパイアド・コンピューティングである。
この調査はまた、より高度なマルウェアを作成する手段として、サイバー犯罪者によるAIの急速な採用にも触れている。
論文 参考訳(メタデータ) (2022-10-12T16:44:52Z) - Artificial Intelligence-Based Smart Grid Vulnerabilities and Potential
Solutions for Fake-Normal Attacks: A Short Review [0.0]
スマートグリッドシステムは電力業界にとって重要なものだが、その高度なアーキテクチャ設計と運用によって、多くのサイバーセキュリティの脅威にさらされている。
人工知能(AI)ベースの技術は、さまざまなコンピュータ設定でサイバー攻撃を検出することで、ますます人気が高まっている。
現在のAIシステムは、GAN(Generative Adversarial Networks)のような高度な敵系が最近出現したため、公開され、消滅している。
論文 参考訳(メタデータ) (2022-02-14T21:41:36Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。