論文の概要: AI-Enhanced Ethical Hacking: A Linux-Focused Experiment
- arxiv url: http://arxiv.org/abs/2410.05105v1
- Date: Mon, 7 Oct 2024 15:02:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 00:18:32.950735
- Title: AI-Enhanced Ethical Hacking: A Linux-Focused Experiment
- Title(参考訳): AIによる倫理的ハッキング:Linuxを使った実験
- Authors: Haitham S. Al-Sinani, Chris J. Mitchell,
- Abstract要約: この研究は、Linuxベースのターゲットマシン上での侵入テストの重要な段階におけるGenAIの有効性を評価する。
このレポートは、誤用、データの偏見、幻覚、AIへの過度信頼といった潜在的なリスクを批判的に調査している。
- 参考スコア(独自算出の注目度): 2.3020018305241337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This technical report investigates the integration of generative AI (GenAI), specifically ChatGPT, into the practice of ethical hacking through a comprehensive experimental study and conceptual analysis. Conducted in a controlled virtual environment, the study evaluates GenAI's effectiveness across the key stages of penetration testing on Linux-based target machines operating within a virtual local area network (LAN), including reconnaissance, scanning and enumeration, gaining access, maintaining access, and covering tracks. The findings confirm that GenAI can significantly enhance and streamline the ethical hacking process while underscoring the importance of balanced human-AI collaboration rather than the complete replacement of human input. The report also critically examines potential risks such as misuse, data biases, hallucination, and over-reliance on AI. This research contributes to the ongoing discussion on the ethical use of AI in cybersecurity and highlights the need for continued innovation to strengthen security defences.
- Abstract(参考訳): 本技術報告では、総合的な実験研究と概念分析を通じて、生成AI(GenAI)、特にChatGPTを倫理的ハッキングの実践に統合する。
制御された仮想環境で実行されるこの研究は、仮想ローカルエリアネットワーク(LAN)内で動作しているLinuxベースのターゲットマシン上での侵入テストの重要段階におけるGenAIの有効性を評価し、偵察、スキャン、列挙、アクセスの獲得、アクセスの維持、トラックのカバーを含む。
その結果、GenAIは、人間の入力を完全に置き換えるよりも、バランスのとれた人間とAIのコラボレーションの重要性を強調しつつ、倫理的ハッキングプロセスを大幅に強化し、合理化することができることが確認された。
報告書はまた、誤用、データ偏見、幻覚、AIへの過度信頼といった潜在的なリスクについても批判的に検討している。
この研究は、サイバーセキュリティにおけるAIの倫理的利用に関する継続的な議論に貢献し、セキュリティ防衛を強化するための継続的なイノベーションの必要性を強調している。
関連論文リスト
- AI-Augmented Ethical Hacking: A Practical Examination of Manual Exploitation and Privilege Escalation in Linux Environments [2.3020018305241337]
本研究は,Linux ベースの浸透試験環境における手動操作および特権エスカレーションタスクにおける生成AI(GenAI)の適用について検討する。
以上の結果から,GenAIは攻撃ベクトルの特定や,特権エスカレーション時の機密データに対する複雑な出力解析など,プロセスの合理化が可能であることが示唆された。
論文 参考訳(メタデータ) (2024-11-26T15:55:15Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - AI Potentiality and Awareness: A Position Paper from the Perspective of
Human-AI Teaming in Cybersecurity [18.324118502535775]
我々は、人間とAIのコラボレーションはサイバーセキュリティに価値があると論じている。
私たちは、AIの計算能力と人間の専門知識を取り入れたバランスのとれたアプローチの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-28T01:20:44Z) - Cyber Security Requirements for Platforms Enhancing AI Reproducibility [0.0]
本研究は、人工知能(AI)の分野に焦点を当て、AIプラットフォームを評価するための新しいフレームワークを紹介する。
Floydhub、BEAT、Codalab、Kaggle、OpenMLの5つの人気AIプラットフォームが評価された。
この分析によると、これらのプラットフォームはいずれも、必要なサイバーセキュリティ対策を完全に組み込んでいない。
論文 参考訳(メタデータ) (2023-09-27T09:43:46Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。