論文の概要: AndroByte: LLM-Driven Privacy Analysis through Bytecode Summarization and Dynamic Dataflow Call Graph Generation
- arxiv url: http://arxiv.org/abs/2510.15112v1
- Date: Thu, 16 Oct 2025 20:10:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.378942
- Title: AndroByte: LLM-Driven Privacy Analysis through Bytecode Summarization and Dynamic Dataflow Call Graph Generation
- Title(参考訳): AndroByte: バイトコード要約と動的データフローコールグラフ生成によるLLM駆動プライバシ分析
- Authors: Mst Eshita Khatun, Lamine Noureddine, Zhiyong Sui, Aisha Ali-Gombe,
- Abstract要約: AndroByteは、AndroidアプリのためのAI駆動のプライバシー分析ツールである。
静的コード解析から正確で説明可能なデータフローコールグラフを生成する。
AndrosByteは、動的データフローコールグラフをオンザフライで生成する際の89%のFbetaスコアを実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the exponential growth in mobile applications, protecting user privacy has become even more crucial. Android applications are often known for collecting, storing, and sharing sensitive user information such as contacts, location, camera, and microphone data often without the user's clear consent or awareness raising significant privacy risks and exposure. In the context of privacy assessment, dataflow analysis is particularly valuable for identifying data usage and potential leaks. Traditionally, this type of analysis has relied on formal methods, heuristics, and rule-based matching. However, these techniques are often complex to implement and prone to errors, such as taint explosion for large programs. Moreover, most existing Android dataflow analysis methods depend heavily on predefined list of sinks, limiting their flexibility and scalability. To address the limitations of these existing techniques, we propose AndroByte, an AI-driven privacy analysis tool that leverages LLM reasoning on bytecode summarization to dynamically generate accurate and explainable dataflow call graphs from static code analysis. AndroByte achieves a significant F\b{eta}-Score of 89% in generating dynamic dataflow call graphs on the fly, outperforming the effectiveness of traditional tools like FlowDroid and Amandroid in leak detection without relying on predefined propagation rules or sink lists. Moreover, AndroByte's iterative bytecode summarization provides comprehensive and explainable insights into dataflow and leak detection, achieving high, quantifiable scores based on the G-Eval metric.
- Abstract(参考訳): モバイルアプリケーションの急激な成長により、ユーザのプライバシ保護はさらに重要になっている。
Androidアプリケーションは、連絡先、位置情報、カメラ、マイクデータなどの機密情報を収集し、保存し、共有することで知られる。
プライバシアセスメントの文脈では、データフロー分析はデータの使用状況と潜在的なリークを特定する上で特に有用である。
伝統的に、この種の分析は形式的手法、ヒューリスティックス、ルールベースのマッチングに依存してきた。
しかし、これらのテクニックは実装が複雑であり、大規模なプログラムのテント爆発のようなエラーを起こすことが多い。
さらに、既存のAndroidデータフロー分析メソッドの多くは、事前に定義されたシンクのリストに大きく依存しており、柔軟性とスケーラビリティが制限されている。
既存の手法の限界に対処するため,静的コード解析から正確なデータフローコールグラフを動的に生成するために,バイトコードの要約に基づくLLM推論を利用するAI駆動のプライバシ解析ツールAndroByteを提案する。
AndroByteは、動的データフローコールグラフをオンザフライで生成する際の89%のF\b{eta}-Scoreを達成し、事前に定義された伝搬ルールやシンクリストに頼ることなく、リーク検出におけるFlowDroidやAmandroidといった従来のツールの有効性を上回っている。
さらに、AndroByteの反復的バイトコード要約は、データフローとリーク検出に関する包括的で説明可能な洞察を提供する。
関連論文リスト
- Leave No TRACE: Black-box Detection of Copyrighted Dataset Usage in Large Language Models via Watermarking [51.74368870268278]
我々は,大規模な言語モデルにおける著作権付きデータセット使用量を完全にブラックボックスで検出するフレームワークであるTRACEを提案する。
textttTRACEは、プライベートキーでガイドされた歪みのない透かしでデータセットを書き換える。
さまざまなデータセットとモデルファミリにわたって、TRACEは一貫して重要な検出を実現している。
論文 参考訳(メタデータ) (2025-10-03T12:53:02Z) - Differentially Private Synthetic Data Release for Topics API Outputs [63.79476766779742]
当社では,Google ChromeのPrivacy Sandboxの一部として,1つのPrivacy-Preserving Ads API – Topics APIに注目しています。
実トピックAPIデータの再識別リスク特性と密に一致した、微分プライベートなデータセットを生成する。
これにより、外部の研究者がAPIを詳細に分析し、現実的な大規模データセットの事前および将来の作業の再現が可能になります。
論文 参考訳(メタデータ) (2025-06-30T13:46:57Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Differentially Private Graph Diffusion with Applications in Personalized PageRanks [15.529891375174165]
本研究は,雑音拡散イテレートを用いてエッジレベルの差分プライバシーを保証する新しいグラフ拡散フレームワークを提案する。
このアルゴリズムは拡散当たりのラプラスノイズを注入し、低次ノードによって誘導される高感度を緩和する度合いベースの閾値関数を採用する。
私たちのプライバシー損失分析は、PABI(Privacy Amplification by Iteration)に基づいています。
論文 参考訳(メタデータ) (2024-06-22T15:32:53Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。