論文の概要: Breaking Android with AI: A Deep Dive into LLM-Powered Exploitation
- arxiv url: http://arxiv.org/abs/2509.07933v1
- Date: Tue, 09 Sep 2025 17:17:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.415399
- Title: Breaking Android with AI: A Deep Dive into LLM-Powered Exploitation
- Title(参考訳): AIでAndroidを破る - LLM搭載の爆発を深く掘り下げる
- Authors: Wanni Vidulige Ishan Perera, Xing Liu, Fan liang, Junyi Zhang,
- Abstract要約: 人工知能(AI)とLarge Language Models(LLM)の急速な進化により、サイバーセキュリティの分野で新たな機会が開かれた。
本研究では LLM ベースのツール,特に PentestGPT を用いた Android の浸透テスト自動化について検討した。
- 参考スコア(独自算出の注目度): 6.269769365534235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid evolution of Artificial Intelligence (AI) and Large Language Models (LLMs) has opened up new opportunities in the area of cybersecurity, especially in the exploitation automation landscape and penetration testing. This study explores Android penetration testing automation using LLM-based tools, especially PentestGPT, to identify and execute rooting techniques. Through a comparison of the traditional manual rooting process and exploitation methods produced using AI, this study evaluates the efficacy, reliability, and scalability of automated penetration testing in achieving high-level privilege access on Android devices. With the use of an Android emulator (Genymotion) as the testbed, we fully execute both traditional and exploit-based rooting methods, automating the process using AI-generated scripts. Secondly, we create a web application by integrating OpenAI's API to facilitate automated script generation from LLM-processed responses. The research focuses on the effectiveness of AI-enabled exploitation by comparing automated and manual penetration testing protocols, by determining LLM weaknesses and strengths along the way. We also provide security suggestions of AI-enabled exploitation, including ethical factors and potential misuse. The findings exhibit that while LLMs can significantly streamline the workflow of exploitation, they need to be controlled by humans to ensure accuracy and ethical application. This study adds to the increasing body of literature on AI-powered cybersecurity and its effect on ethical hacking, security research, and mobile device security.
- Abstract(参考訳): 人工知能(AI)とLarge Language Models(LLMs)の急速な進化により、サイバーセキュリティ分野、特に搾取自動化のランドスケープと浸透テストにおいて、新たな機会が開かれた。
本研究では LLM ベースのツール,特に PentestGPT を用いた Android の浸透テスト自動化について検討した。
本研究は,AIを用いた従来の手作業によるルート処理と利用方法の比較を通じて,Androidデバイス上での高レベルの特権アクセスを実現する上で,自動貫入テストの有効性,信頼性,スケーラビリティを評価する。
テストベッドとしてAndroidエミュレータ(Genymotion)を使用することで、従来のルートメソッドとエクスプロイトベースのルートメソッドの両方を完全に実行し、AI生成スクリプトを使用してプロセスを自動化します。
次に,LLM処理された応答からスクリプトの自動生成を容易にするために,OpenAIのAPIを統合することでWebアプリケーションを作成する。
この研究は、自動および手動による浸透試験プロトコルの比較により、その過程でのLSMの弱点と強度を決定することにより、AIを活用したエクスプロイトの有効性に焦点を当てている。
また、倫理的要因や潜在的な誤用を含むAIによる搾取に関するセキュリティ提案も提供します。
この結果から,LSMは活用のワークフローを著しく合理化することができるが,精度と倫理的応用を確実にするためには,人間によって制御される必要があることが示唆された。
この研究は、AIによるサイバーセキュリティに関する文献が増加し、倫理的ハッキング、セキュリティ研究、モバイルデバイスのセキュリティへの影響が増している。
関連論文リスト
- PentestAgent: Incorporating LLM Agents to Automated Penetration Testing [6.815381197173165]
手動浸透試験は時間と費用がかかる。
大規模言語モデル(LLM)の最近の進歩は、浸透テストを強化する新たな機会を提供する。
我々は,新しいLLMベースの自動浸透試験フレームワークであるPentestAgentを提案する。
論文 参考訳(メタデータ) (2024-11-07T21:10:39Z) - AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Machine Learning Meets Advanced Robotic Manipulation [48.6221343014126]
本論文は、最先端技術と、実世界の操作タスクに適用された機械学習手法の最近の動向についてレビューする。
論文の残りの部分は、産業、医療、農業、宇宙、軍事、捜索救助など、さまざまな分野におけるML応用に費やされている。
論文 参考訳(メタデータ) (2023-09-22T01:06:32Z) - Getting pwn'd by AI: Penetration Testing with Large Language Models [0.0]
本稿では,GPT3.5のような大規模言語モデルによるAIスパーリングパートナーによる浸透テストの強化の可能性について検討する。
セキュリティテストの課題のためのハイレベルなタスクプランニングと、脆弱な仮想マシン内での低レベルな脆弱性ハンティングである。
論文 参考訳(メタデータ) (2023-07-24T19:59:22Z) - Active Predicting Coding: Brain-Inspired Reinforcement Learning for
Sparse Reward Robotic Control Problems [79.07468367923619]
ニューラルジェネレーティブ・コーディング(NGC)の神経認知計算フレームワークによるロボット制御へのバックプロパゲーションフリーアプローチを提案する。
我々は、スパース報酬から動的オンライン学習を容易にする強力な予測符号化/処理回路から完全に構築されたエージェントを設計する。
提案するActPCエージェントは,スパース(外部)報酬信号に対して良好に動作し,複数の強力なバックプロップベースのRLアプローチと競合し,性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-09-19T16:49:32Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Automated Machine Learning: A Case Study on Non-Intrusive Appliance Load Monitoring [81.06807079998117]
非侵入的機器負荷モニタリング(NIALM)のための自動機械学習(AutoML)を実現する新しい手法を提案する。
NIALMは、電子機器や家電のエネルギー消費を測定するためのスマートメーターに代わる費用対効果を提供する。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。