論文の概要: Assessing the Capability of Android Dynamic Analysis Tools to Combat Anti-Runtime Analysis Techniques
- arxiv url: http://arxiv.org/abs/2512.12551v1
- Date: Sun, 14 Dec 2025 04:43:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.310326
- Title: Assessing the Capability of Android Dynamic Analysis Tools to Combat Anti-Runtime Analysis Techniques
- Title(参考訳): Androidの動的解析ツールが実行時解析技術に悪影響を及ぼす可能性の評価
- Authors: Dewen Suo, Lei Xue, Weihao Huang, Runze Tan, Guozi Sun,
- Abstract要約: 悪意のあるアプリケーションによる反ランタイム分析(ARA)技術は深刻な課題となる。
ARA技術はアプリケーションの動的検査を防ぐために設計されている。
本稿では,様々な ARA テクニックをバイパスする,広く利用されている Android 動的解析ツールについて検討する。
- 参考スコア(独自算出の注目度): 3.263103350499341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the dominant mobile operating system, Android continues to attract a substantial influx of new applications each year. However, this growth is accompanied by increased attention from malicious actors, resulting in a significant rise in security threats to the Android ecosystem. Among these threats, the adoption of Anti-Runtime Analysis (ARA) techniques by malicious applications poses a serious challenge, as it hinders security professionals from effectively analyzing malicious behaviors using dynamic analysis tools. ARA technologies are designed to prevent the dynamic examination of applications, thus complicating efforts to ensure platform security. This paper presents a comprehensive empirical study that assesses the ability of widely-used Android dynamic analysis tools to bypass various ARA techniques. Our findings reveal a critical gap in the effectiveness of existing dynamic analysis tools to counter ARA mechanisms, highlighting an urgent need for more robust solutions. This work provides valuable insights into the limitations of existing tools and highlights the need for improved methods to counteract ARA technologies, thus advancing the field of software security and dynamic analysis.
- Abstract(参考訳): 主要なモバイルOSであるAndroidは、毎年かなりの数の新しいアプリケーションを集めている。
しかし、この成長には悪意あるアクターからの関心が高まり、Androidエコシステムに対するセキュリティの脅威が著しく高まっている。
これらの脅威の中で、悪意のあるアプリケーションによる反ランタイム分析(ARA)技術の採用は、セキュリティ専門家が動的解析ツールを使用して悪意のある振る舞いを効果的に分析することを妨げているため、深刻な課題となっている。
ARA技術はアプリケーションの動的検査を防ぐために設計されており、プラットフォームのセキュリティを確保する努力が複雑になる。
本稿では,広く利用されているAndroid動的解析ツールが様々なARA手法をバイパスする能力を評価するための総合的な実証的研究について述べる。
以上の結果から,既存の動的解析ツールがARAのメカニズムに対処する上で,より堅牢なソリューションの必要性が顕著に浮き彫りにされていることが明らかとなった。
この研究は、既存のツールの限界に関する貴重な洞察を提供し、ARA技術に対抗するための改善された方法の必要性を強調し、ソフトウェアセキュリティと動的分析の分野を前進させる。
関連論文リスト
- Feature-Centric Approaches to Android Malware Analysis: A Survey [5.605292425841782]
高度化されたマルウェアファミリーは、IoTネットワークに侵入するためにAndroidプラットフォームのオープン性を利用する。
本レビューでは,Androidのマルウェア分析における最先端のアプローチと,IoTインフラストラクチャの安全性について検討する。
論文 参考訳(メタデータ) (2025-09-12T21:55:26Z) - NeuroBreak: Unveil Internal Jailbreak Mechanisms in Large Language Models [68.09675063543402]
NeuroBreakは、ニューロンレベルの安全性メカニズムを分析し、脆弱性を軽減するために設計されたトップダウンのジェイルブレイク分析システムである。
レイヤワイドな表現探索分析を取り入れることで、NeuroBreakはモデルの意思決定プロセスに関する新たな視点を提供する。
本システムの有効性を検証するために,定量的評価とケーススタディを実施している。
論文 参考訳(メタデータ) (2025-09-04T08:12:06Z) - A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - A Survey on Model Extraction Attacks and Defenses for Large Language Models [55.60375624503877]
モデル抽出攻撃は、デプロイされた言語モデルに重大なセキュリティ脅威をもたらす。
この調査は、抽出攻撃と防御攻撃の包括的分類、機能抽出への攻撃の分類、データ抽出の訓練、およびプロンプトターゲット攻撃を提供する。
モデル保護,データプライバシ保護,迅速なターゲット戦略に編成された防御機構について検討し,その効果を異なる展開シナリオで評価する。
論文 参考訳(メタデータ) (2025-06-26T22:02:01Z) - Security through the Eyes of AI: How Visualization is Shaping Malware Detection [15.361074638653477]
マルウェアの検出と分類に応用された既存の可視化に基づくアプローチを評価する。
このフレームワーク内では、マルウェア検出パイプラインの重要な段階にわたる最先端のアプローチを分析する。
我々は、可視化ベースのアプローチにおける主な課題を明らかにし、この重要な分野における進歩と将来的な方向性についての洞察を提供する。
論文 参考訳(メタデータ) (2025-05-12T13:53:56Z) - Large Language Model (LLM) for Software Security: Code Analysis, Malware Analysis, Reverse Engineering [3.1195311942826303]
大規模言語モデル(LLM)はサイバーセキュリティの強力なツールとして登場した。
LLMはマルウェア検出、生成、リアルタイム監視の高度な機能を提供する。
論文 参考訳(メタデータ) (2025-04-07T22:32:46Z) - Too Much to Trust? Measuring the Security and Cognitive Impacts of Explainability in AI-Driven SOCs [0.6990493129893112]
説明可能なAI(XAI)は、AIによる脅威検出の透明性と信頼性を高めるための大きな約束を持っている。
本研究は、セキュリティコンテキストにおける現在の説明手法を再評価し、SOCに適合したロールアウェアでコンテキストに富んだXAI設計が実用性を大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2025-03-03T21:39:15Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - Bringing Order Amidst Chaos: On the Role of Artificial Intelligence in Secure Software Engineering [0.0]
進化を続ける技術的景観は、機会と脅威の両方を提供し、カオスと秩序が競合する動的な空間を作り出す。
セキュアなソフトウェアエンジニアリング(SSE)は、ソフトウェアシステムを危険にさらす脆弱性に継続的に対処しなければならない。
この論文は、AIの精度に影響を与えるドメイン固有の違いに対処することで、SSEのカオスに秩序をもたらすことを目指している。
論文 参考訳(メタデータ) (2025-01-09T11:38:58Z) - Exploring the Adversarial Vulnerabilities of Vision-Language-Action Models in Robotics [68.36528819227641]
本稿では,ビジョン・ランゲージ・アクション(VLA)モデルのロバスト性を体系的に評価する。
本研究では,ロボット行動の不安定化に空間的基盤を活用する2つの未目標攻撃目標と,ロボット軌道を操作する目標攻撃目標を導入する。
我々は、カメラの視野に小さなカラフルなパッチを配置し、デジタルと物理の両方の環境で効果的に攻撃を実行する逆パッチ生成アプローチを設計する。
論文 参考訳(メタデータ) (2024-11-18T01:52:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。