論文の概要: Breaking SafetyCore: Exploring the Risks of On-Device AI Deployment
- arxiv url: http://arxiv.org/abs/2509.06371v1
- Date: Mon, 08 Sep 2025 06:53:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.993662
- Title: Breaking SafetyCore: Exploring the Risks of On-Device AI Deployment
- Title(参考訳): Breaking SafetyCore - オンデバイスAIデプロイメントのリスクを探る
- Authors: Victor Guyomard, Mathis Mauvisseau, Marie Paindavoine,
- Abstract要約: デバイス上でデプロイされるAIモデルの増加。
この変更は、プライバシを高め、レイテンシを低減するだけでなく、従来のソフトウェアとは異なるセキュリティリスクももたらします。
本稿では,機密画像検出を取り入れたAndroidシステムであるSafetyCoreのケーススタディを通じて,これらのリスクについて検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to hardware and software improvements, an increasing number of AI models are deployed on-device. This shift enhances privacy and reduces latency, but also introduces security risks distinct from traditional software. In this article, we examine these risks through the real-world case study of SafetyCore, an Android system service incorporating sensitive image content detection. We demonstrate how the on-device AI model can be extracted and manipulated to bypass detection, effectively rendering the protection ineffective. Our analysis exposes vulnerabilities of on-device AI models and provides a practical demonstration of how adversaries can exploit them.
- Abstract(参考訳): ハードウェアとソフトウェアの改善により、デバイス上でAIモデルがデプロイされる数が増えている。
この変更は、プライバシを高め、レイテンシを低減するだけでなく、従来のソフトウェアとは異なるセキュリティリスクももたらします。
本稿では,機密画像検出を取り入れたAndroidシステムであるSafetyCoreのケーススタディを通じて,これらのリスクについて検討する。
デバイス上でAIモデルを抽出し、バイパス検出のために操作する方法を実証する。
我々の分析は、デバイス上のAIモデルの脆弱性を露呈し、敵がそれらをどのように活用できるかを実演する。
関連論文リスト
- Qualcomm Trusted Application Emulation for Fuzzing Testing [0.3277163122167433]
この研究はQualcomm TEE内の信頼できるアプリケーション(TA)に焦点を当てている。
リバースエンジニアリング技術を通じて,その動作を正確にエミュレートする部分的なエミュレーション環境を開発する。
我々はファジィテスト技術をエミュレータに統合し、Qualcomm TAの潜在的な脆弱性を体系的に発見する。
論文 参考訳(メタデータ) (2025-07-11T06:10:15Z) - An Approach to Technical AGI Safety and Security [72.83728459135101]
我々は、人類を著しく傷つけるのに十分な害のリスクに対処するアプローチを開発する。
私たちは、誤用や悪用に対する技術的なアプローチに重点を置いています。
これらの成分を組み合わせてAGIシステムの安全性を実現する方法について概説する。
論文 参考訳(メタデータ) (2025-04-02T15:59:31Z) - Runtime Detection of Adversarial Attacks in AI Accelerators Using Performance Counters [5.097354139604596]
本稿では,AIハードウェアの悪意ある使用に対する保護のための新しいフレームワークである佐村井を提案する。
Samurai氏は、AIモデルの動的振る舞いを追跡するAI Performance Counter(APC)を紹介している。
APCは、異なるAI操作の低レベルのハードウェアイベントのランタイムプロファイルを記録する。
APCが記録した要約情報は、TANTOによって処理され、潜在的なセキュリティ違反を効率的に識別する。
論文 参考訳(メタデータ) (2025-03-10T17:38:42Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - OpenAI o1 System Card [274.83891368890977]
o1モデルシリーズは、思考の連鎖を用いて推論するために大規模な強化学習で訓練されている。
本報告では,OpenAI o1およびOpenAI o1-miniモデルに対して実施される安全作業の概要について述べる。
論文 参考訳(メタデータ) (2024-12-21T18:04:31Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Modeling Electromagnetic Signal Injection Attacks on Camera-based Smart Systems: Applications and Mitigation [18.909937495767313]
電磁波は安全またはセキュリティクリティカルなシステムに脅威をもたらす。
このような攻撃により、攻撃者はリモートで画像を操作でき、誤ったAI判断につながる。
本研究は,攻撃に対する堅牢性を向上させるための対人訓練に関するパイロット研究である。
論文 参考訳(メタデータ) (2024-08-09T15:33:28Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - A Unified Hardware-based Threat Detector for AI Accelerators [12.96840649714218]
FPGAベースのAIアクセラレータを保護するために,UniGuardを設計する。
我々は、電力変動を捉え、教師付き機械学習モデルを訓練し、様々な種類の脅威を特定するために、タイム・トゥ・デジタル・コンバータを用いている。
論文 参考訳(メタデータ) (2023-11-28T10:55:02Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。