論文の概要: AI-Powered GUI Attack and Its Defensive Methods
- arxiv url: http://arxiv.org/abs/2001.09388v1
- Date: Sun, 26 Jan 2020 02:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 19:27:05.466524
- Title: AI-Powered GUI Attack and Its Defensive Methods
- Title(参考訳): AIによるGUI攻撃とその防御方法
- Authors: Ning Yu, Zachary Tuttle, Carl Jake Thurnau, Emmanuel Mireku
- Abstract要約: 人工知能を利用した悪意あるマルウェアが、GUI(Graphical User Interface)システムへの脅威として浮上している。
その結果、現在のAI技術に基づいて、ジェネリックGUIアタックを実装し、簡単な方法で実行できることが示されている。
- 参考スコア(独自算出の注目度): 4.119667141491311
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the first Graphical User Interface (GUI) prototype was invented in the
1970s, GUI systems have been deployed into various personal computer systems
and server platforms. Recently, with the development of artificial intelligence
(AI) technology, malicious malware powered by AI is emerging as a potential
threat to GUI systems. This type of AI-based cybersecurity attack, targeting at
GUI systems, is explored in this paper. It is twofold: (1) A malware is
designed to attack the existing GUI system by using AI-based object recognition
techniques. (2) Its defensive methods are discovered by generating adversarial
examples and other methods to alleviate the threats from the intelligent GUI
attack. The results have shown that a generic GUI attack can be implemented and
performed in a simple way based on current AI techniques and its
countermeasures are temporary but effective to mitigate the threats of GUI
attack so far.
- Abstract(参考訳): 1970年代に最初のGUIプロトタイプが発明されて以来、GUIシステムは様々なパーソナルコンピュータシステムやサーバプラットフォームにデプロイされてきた。
近年、人工知能(AI)技術の発展に伴い、GUIシステムに対する潜在的な脅威としてAIを利用した悪意のあるマルウェアが出現している。
本稿では,GUIシステムを対象としたAIベースのサイバーセキュリティ攻撃について検討する。
1)AIベースのオブジェクト認識技術を用いて,既存のGUIシステムを攻撃するマルウェアを設計する。
(2)その防御方法は、知的gui攻撃からの脅威を軽減するための敵の例やその他の方法を生成して発見する。
その結果、現在のAI技術に基づいて、汎用的なGUIアタックを簡単な方法で実装、実行できることが示され、その対策は一時的ではあるが、これまでのGUIアタックの脅威を軽減する効果があることがわかった。
関連論文リスト
- Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - A Streamlit-based Artificial Intelligence Trust Platform for
Next-Generation Wireless Networks [0.0]
本稿では,NextGネットワークにStreamlitを用いたAI信頼プラットフォームを提案する。
研究者は、敵の脅威に対してAIモデルとアプリケーションを評価し、防御し、認証し、検証することができる。
論文 参考訳(メタデータ) (2022-10-25T05:26:30Z) - The State-of-the-Art in AI-Based Malware Detection Techniques: A Review [0.0]
このレビューは、マルウェアの検出と防止に使用される最先端のAI技術の概要を明らかにすることを目的としている。
研究対象のアルゴリズムは、浅層学習、深層学習、バイオインスパイアド・コンピューティングである。
この調査はまた、より高度なマルウェアを作成する手段として、サイバー犯罪者によるAIの急速な採用にも触れている。
論文 参考訳(メタデータ) (2022-10-12T16:44:52Z) - CTI4AI: Threat Intelligence Generation and Sharing after Red Teaming AI
Models [0.0]
システムの脆弱性、潜在的な脅威、システムの堅牢性を高める特性を識別する必要がある。
二次的なニーズは、このAIセキュリティ脅威インテリジェンスを、モデル開発者、ユーザ、AI/MLセキュリティ専門家など、さまざまな利害関係者間で共有することである。
本稿では,AI/ML固有の脆弱性と脅威知能を体系的に識別し,共有する必要性を克服するために,プロトタイプシステムCTI4AIを作成し,記述する。
論文 参考訳(メタデータ) (2022-08-16T00:16:58Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Attacks, Defenses, And Tools: A Framework To Facilitate Robust AI/ML
Systems [2.5137859989323528]
ソフトウェアシステムは、人工知能(AI)と機械学習(ML)コンポーネントにますます依存している。
本稿では,AI対応システムに関連する攻撃や弱点を特徴付ける枠組みを提案する。
論文 参考訳(メタデータ) (2022-02-18T22:54:04Z) - Artificial Intelligence-Based Smart Grid Vulnerabilities and Potential
Solutions for Fake-Normal Attacks: A Short Review [0.0]
スマートグリッドシステムは電力業界にとって重要なものだが、その高度なアーキテクチャ設計と運用によって、多くのサイバーセキュリティの脅威にさらされている。
人工知能(AI)ベースの技術は、さまざまなコンピュータ設定でサイバー攻撃を検出することで、ますます人気が高まっている。
現在のAIシステムは、GAN(Generative Adversarial Networks)のような高度な敵系が最近出現したため、公開され、消滅している。
論文 参考訳(メタデータ) (2022-02-14T21:41:36Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。