論文の概要: AttestLLM: Efficient Attestation Framework for Billion-scale On-device LLMs
- arxiv url: http://arxiv.org/abs/2509.06326v1
- Date: Mon, 08 Sep 2025 04:17:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.969009
- Title: AttestLLM: Efficient Attestation Framework for Billion-scale On-device LLMs
- Title(参考訳): AttestLLM: 数十億ドル規模のオンデバイスLLMのための効率的なテストフレームワーク
- Authors: Ruisi Zhang, Yifei Zhao, Neusha Javidnia, Mengxin Zheng, Farinaz Koushanfar,
- Abstract要約: 本稿では,デバイスベンダのハードウェアレベルの知的財産権(IP)を保護するための,最初のテストフレームワークであるAttestLLMを紹介する。
AttestLLMはモデルの正当性を強制し,モデル偽造や攻撃に対するレジリエンスを示す。
- 参考スコア(独自算出の注目度): 19.00344718051438
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As on-device LLMs(e.g., Apple on-device Intelligence) are widely adopted to reduce network dependency, improve privacy, and enhance responsiveness, verifying the legitimacy of models running on local devices becomes critical. Existing attestation techniques are not suitable for billion-parameter Large Language Models (LLMs), struggling to remain both time- and memory-efficient while addressing emerging threats in the LLM era. In this paper, we present AttestLLM, the first-of-its-kind attestation framework to protect the hardware-level intellectual property (IP) of device vendors by ensuring that only authorized LLMs can execute on target platforms. AttestLLM leverages an algorithm/software/hardware co-design approach to embed robust watermarking signatures onto the activation distributions of LLM building blocks. It also optimizes the attestation protocol within the Trusted Execution Environment (TEE), providing efficient verification without compromising inference throughput. Extensive proof-of-concept evaluations on LLMs from Llama, Qwen, and Phi families for on-device use cases demonstrate AttestLLM's attestation reliability, fidelity, and efficiency. Furthermore, AttestLLM enforces model legitimacy and exhibits resilience against model replacement and forgery attacks.
- Abstract(参考訳): オンデバイスLSM(例:Appleオンデバイスインテリジェンス)は、ネットワーク依存の低減、プライバシーの向上、応答性の向上のために広く採用されているため、ローカルデバイス上で実行されるモデルの正当性を検証することが重要である。
既存の検証技術は10億パラメートルのLarge Language Model(LLM)には適さないが、LLM時代の新たな脅威に対処しながら、時間とメモリ効率の両方を維持するのに苦労している。
本稿では,デバイスベンダのハードウェアレベルの知的財産権(IP)を保護するための,最優先型認証フレームワークであるAttestLLMを提案する。
AttestLLMはアルゴリズム/ソフトウェア/ハードウェアの共同設計手法を利用して、LLMビルディングブロックの活性化分布にロバストな透かしシグネチャを埋め込む。
また、Trusted Execution Environment (TEE)内の認証プロトコルを最適化し、推論スループットを損なうことなく効率的な検証を可能にする。
Llama、Qwen、Phiファミリーのデバイス上のユースケースにおけるLLMの広範な概念実証評価は、AttestLLMの証明信頼性、忠実性、効率性を実証している。
さらに、AttestLLMはモデルの正当性を強制し、モデルの置換と偽造攻撃に対するレジリエンスを示す。
関連論文リスト
- Phishing Detection in the Gen-AI Era: Quantized LLMs vs Classical Models [1.4999444543328293]
フィッシング攻撃はますます洗練され、高精度と計算効率のバランスをとる検知システムの必要性が強調されている。
本稿では、フィッシング検出のための従来の機械学習(ML)、ディープラーニング(DL)、および量子化された小パラメータ大規模言語モデル(LLM)の比較評価を行う。
現在,LLMはML法やDL法に比べて精度が低いが,文脈に基づく微妙なフィッシング手法を識別する可能性が強い。
論文 参考訳(メタデータ) (2025-07-10T04:01:52Z) - Federated Learning-Enabled Hybrid Language Models for Communication-Efficient Token Transmission [87.68447072141402]
ハイブリッド言語モデル(HLM)は、エッジデバイス上でのSLM(Small Language Model)の低レイテンシ効率と、集中型サーバ上でのLLM(Large Language Model)の高精度を組み合わせたものである。
我々は、不確実性を考慮した推論とフェデレートラーニング(FL)を統合する通信効率の高いHLMフレームワークであるFedHLMを提案する。
論文 参考訳(メタデータ) (2025-06-30T02:56:11Z) - LASA: Enhancing SoC Security Verification with LLM-Aided Property Generation [7.52190283487474]
形式的プロパティ検証(FPV)は、設計の振る舞いをモデル化し、検証する機能を提供する。
現在のプラクティスでは、そのようなプロパティを作成するためにかなりの手作業が必要で、時間がかかり、コストがかかり、エラーが発生します。
本稿では,LLMと検索拡張生成(RAG)を活用して非空きセキュリティ特性を創出する新しいフレームワークであるLASAを提案する。
論文 参考訳(メタデータ) (2025-06-22T01:21:03Z) - FedShield-LLM: A Secure and Scalable Federated Fine-Tuned Large Language Model [0.48342038441006796]
Federated Learning (FL)は、LLM(Large Language Models)のトレーニングと微調整のための分散フレームワークを提供する。
FLはプライバシとセキュリティの懸念に対処し、LLMの相当な計算要求に関連する課題をナビゲートする。
ローランド適応 (LoRA) パラメータに対して, 完全同型暗号化 (FHE) を用いたプルーニングを用いた新しいFedShield-LLMを提案する。
論文 参考訳(メタデータ) (2025-06-06T00:05:05Z) - AegisLLM: Scaling Agentic Systems for Self-Reflective Defense in LLM Security [74.22452069013289]
AegisLLMは、敵の攻撃や情報漏洩に対する協調的なマルチエージェント防御である。
テスト時のエージェント推論システムのスケーリングは,モデルの有用性を損なうことなく,ロバスト性を大幅に向上させることを示す。
アンラーニングやジェイルブレイクを含む主要な脅威シナリオに対する総合的な評価は、AegisLLMの有効性を示している。
論文 参考訳(メタデータ) (2025-04-29T17:36:05Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [60.881609323604685]
ブラックボックスAPIを通じてアクセスされるLarge Language Models (LLM)は、信頼の課題をもたらす。
ユーザーは、宣伝されたモデル機能に基づいたサービスの料金を支払う。
プロバイダは、運用コストを削減するために、特定のモデルを安価で低品質の代替品に隠蔽的に置き換えることができる。
この透明性の欠如は、公正性を損なうとともに、信頼を損なうとともに、信頼性の高いベンチマークを複雑にする。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - Are LLMs Ready for Practical Adoption for Assertion Generation? [6.3585378855805725]
ハードウェア検証の品質、すなわちコーナーケース設計バグの検出と診断は、アサーションの品質に大きく依存する。
TransformersやLarge-Language Models (LLMs)のような生成AIが登場したことで、関数型およびセキュリティアサーションを生成する新しい、効果的でスケーラブルな技術の開発への関心が高まっている。
論文 参考訳(メタデータ) (2025-02-28T01:34:45Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
大規模言語モデル(LLM)は、より有能で広く普及している。
テスト時間計算の標準化, 測定, スケーリングの最近の進歩は, ハードタスクにおける高い性能を達成するためにモデルを最適化するための新しい手法を提案する。
本稿では、これらの進歩をジェイルブレイクモデルに応用し、協調LDMから有害な応答を誘発する。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - TOPLOC: A Locality Sensitive Hashing Scheme for Trustless Verifiable Inference [7.103455333148043]
大規模言語モデル(LLM)は非常に有能であることが証明されているが、現在フロンティアモデルへのアクセスは推論プロバイダに依存している。
本研究では,この問題に対処する検証可能な新しい手法であるTOPLOCを提案する。
論文 参考訳(メタデータ) (2025-01-27T12:46:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。