論文の概要: Qualcomm Trusted Application Emulation for Fuzzing Testing
- arxiv url: http://arxiv.org/abs/2507.08331v1
- Date: Fri, 11 Jul 2025 06:10:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.253802
- Title: Qualcomm Trusted Application Emulation for Fuzzing Testing
- Title(参考訳): Qualcommがファジィテストのためのアプリケーションのエミュレーションを信頼
- Authors: Chun-I Fan, Li-En Chang, Cheng-Han Shie,
- Abstract要約: この研究はQualcomm TEE内の信頼できるアプリケーション(TA)に焦点を当てている。
リバースエンジニアリング技術を通じて,その動作を正確にエミュレートする部分的なエミュレーション環境を開発する。
我々はファジィテスト技術をエミュレータに統合し、Qualcomm TAの潜在的な脆弱性を体系的に発見する。
- 参考スコア(独自算出の注目度): 0.3277163122167433
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent years, the increasing awareness of cybersecurity has led to a heightened focus on information security within hardware devices and products. Incorporating Trusted Execution Environments (TEEs) into product designs has become a standard practice for safeguarding sensitive user information. However, vulnerabilities within these components present significant risks, if exploited by attackers, these vulnerabilities could lead to the leakage of sensitive data, thereby compromising user privacy and security. This research centers on trusted applications (TAs) within the Qualcomm TEE and introduces a novel emulator specifically designed for these applications. Through reverse engineering techniques, we thoroughly analyze Qualcomm TAs and develop a partial emulation environment that accurately emulates their behavior. Additionally, we integrate fuzzing testing techniques into the emulator to systematically uncover potential vulnerabilities within Qualcomm TAs, demonstrating its practical effectiveness in identifying real-world security flaws. This research makes a significant contribution by being the first to provide both the implementation methods and source codes for a Qualcomm TAs emulator, offering a valuable reference for future research efforts. Unlike previous approaches that relied on complex and resource-intensive full-system simulations, our approach is lightweight and effective, making security testing of TA more convenient.
- Abstract(参考訳): 近年、サイバーセキュリティに対する意識が高まり、ハードウェアデバイスや製品における情報セキュリティへの注目が高まっている。
製品設計にTEE(Trusted Execution Environments)を組み込むことは、センシティブなユーザ情報を保護するための標準慣行となっている。
しかし、これらのコンポーネント内の脆弱性は、攻撃者が悪用すれば、機密データの漏洩につながる可能性があるため、ユーザのプライバシとセキュリティを損なう可能性がある。
本研究は、Qualcomm TEE内の信頼されたアプリケーション(TA)に焦点を当て、これらのアプリケーション用に設計された新しいエミュレータを導入する。
リバースエンジニアリング技術により、Qualcomm TAを徹底的に分析し、その動作を正確にエミュレートする部分エミュレーション環境を開発する。
さらに、ファジィテスト技術をエミュレータに統合し、Qualcomm TA内の潜在的な脆弱性を体系的に発見し、現実世界のセキュリティ欠陥を特定するための実用的効果を示す。
この研究は、Qualcomm TAsエミュレータの実装方法とソースコードの両方を最初に提供し、将来の研究に貴重な参考を提供することで、大きな貢献をしている。
複雑でリソース集約的なフルシステムシミュレーションに頼っていた従来のアプローチとは異なり、我々のアプローチは軽量で効果的であり、TAのセキュリティテストをより便利にします。
関連論文リスト
- SEC-bench: Automated Benchmarking of LLM Agents on Real-World Software Security Tasks [11.97472024483841]
SEC-benchは、大規模言語モデル(LLM)エージェントを評価するための、最初の完全に自動化されたベンチマークフレームワークである。
当社のフレームワークは,再現可能なアーティファクトを備えた高品質なソフトウェア脆弱性データセットを,インスタンス当たり0.87ドルで自動生成します。
最先端のLLMコードエージェントの包括的な評価では、大きなパフォーマンスギャップが明らかになっている。
論文 参考訳(メタデータ) (2025-06-13T13:54:30Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - Automating Safety Enhancement for LLM-based Agents with Synthetic Risk Scenarios [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - A Survey on the Safety and Security Threats of Computer-Using Agents: JARVIS or Ultron? [30.063392019347887]
本稿では,EmphComputer-Using Agentsの安全性とセキュリティの脅威に関する知識の体系化について述べる。
CUAは、デスクトップアプリケーション、Webページ、モバイルアプリをナビゲートするなど、自律的にタスクを実行することができる。
論文 参考訳(メタデータ) (2025-05-16T06:56:42Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - Physical and Software Based Fault Injection Attacks Against TEEs in Mobile Devices: A Systemisation of Knowledge [5.6064476854380825]
Trusted Execution Environments (TEE) は、現代のセキュアコンピューティングの重要なコンポーネントである。
機密データを保護し、セキュアな操作を実行するために、プロセッサに分離されたゾーンを提供する。
その重要性にもかかわらず、TEEは障害注入(FI)攻撃に対してますます脆弱である。
論文 参考訳(メタデータ) (2024-11-22T11:59:44Z) - AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Is On-Device AI Broken and Exploitable? Assessing the Trust and Ethics in Small Language Models [1.5953412143328967]
オンデバイス人工知能(AI)の信頼性と倫理的意味を調査するための第1報について述べる。
以上の結果から,デバイス上のSLMは信頼性が著しく低く,特にステレオタイプ,不公平,プライバシブリーチング行動が顕著であることがわかった。
本研究は、デバイス上でのSLMの倫理的保護が欠如していることを示し、有害なコンテンツを生成する能力を強調した。
論文 参考訳(メタデータ) (2024-06-08T05:45:42Z) - LLbezpeky: Leveraging Large Language Models for Vulnerability Detection [10.330063887545398]
大規模言語モデル(LLM)は、人やプログラミング言語におけるセムナティクスを理解する大きな可能性を示している。
私たちは、脆弱性の特定と修正を支援するAI駆動ワークフローの構築に重点を置いています。
論文 参考訳(メタデータ) (2024-01-02T16:14:30Z) - SecureFalcon: Are We There Yet in Automated Software Vulnerability Detection with LLMs? [3.566250952750758]
SecureFalconは、Falcon-40Bモデルから派生した1億1100万のパラメータしか持たない革新的なモデルアーキテクチャである。
SecureFalconはバイナリ分類で94%の精度、マルチクラス化で最大92%、即時CPU推論時間を実現している。
論文 参考訳(メタデータ) (2023-07-13T08:34:09Z) - Semantic Similarity-Based Clustering of Findings From Security Testing
Tools [1.6058099298620423]
特に、複数の観点からソフトウェアアーチファクトを検査した後、レポートを生成する自動セキュリティテストツールを使用するのが一般的である。
これらの重複した発見を手動で識別するには、セキュリティ専門家は時間、努力、知識といったリソースを投資する必要がある。
本研究では,意味論的に類似したセキュリティ発見のクラスタリングに自然言語処理を適用する可能性について検討した。
論文 参考訳(メタデータ) (2022-11-20T19:03:19Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。