論文の概要: A Survey: Towards Privacy and Security in Mobile Large Language Models
- arxiv url: http://arxiv.org/abs/2509.02411v1
- Date: Tue, 02 Sep 2025 15:19:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.078378
- Title: A Survey: Towards Privacy and Security in Mobile Large Language Models
- Title(参考訳): A Survey: モバイル大規模言語モデルにおけるプライバシとセキュリティ
- Authors: Honghui Xu, Kaiyang Li, Wei Chen, Danyang Zheng, Zhiyuan Li, Zhipeng Cai,
- Abstract要約: Mobile Large Language Models (LLMs) は、医療、金融、教育などの様々な分野に革命をもたらし、先進的な自然言語処理タスクを現在実行している。
しかしながら、これらのモデルをモバイルおよびエッジ環境にデプロイすることは、そのリソース集約性と、処理するデータの感度によって、プライバシとセキュリティに関する重大な問題を引き起こす。
この調査は、モバイルLLMに関連するプライバシーとセキュリティの問題に関する総合的な概要を提供し、差分プライバシー、フェデレーション学習、迅速な暗号化といった既存のソリューションを体系的に分類する。
- 参考スコア(独自算出の注目度): 17.927458870623095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile Large Language Models (LLMs) are revolutionizing diverse fields such as healthcare, finance, and education with their ability to perform advanced natural language processing tasks on-the-go. However, the deployment of these models in mobile and edge environments introduces significant challenges related to privacy and security due to their resource-intensive nature and the sensitivity of the data they process. This survey provides a comprehensive overview of privacy and security issues associated with mobile LLMs, systematically categorizing existing solutions such as differential privacy, federated learning, and prompt encryption. Furthermore, we analyze vulnerabilities unique to mobile LLMs, including adversarial attacks, membership inference, and side-channel attacks, offering an in-depth comparison of their effectiveness and limitations. Despite recent advancements, mobile LLMs face unique hurdles in achieving robust security while maintaining efficiency in resource-constrained environments. To bridge this gap, we propose potential applications, discuss open challenges, and suggest future research directions, paving the way for the development of trustworthy, privacy-compliant, and scalable mobile LLM systems.
- Abstract(参考訳): Mobile Large Language Models (LLMs) は、医療、金融、教育などの様々な分野に革命をもたらし、先進的な自然言語処理タスクを現在実行している。
しかしながら、これらのモデルをモバイルおよびエッジ環境にデプロイすることは、そのリソース集約性と、処理するデータの感度によって、プライバシとセキュリティに関する重大な問題を引き起こす。
この調査は、モバイルLLMに関連するプライバシーとセキュリティの問題を包括的に概観し、差分プライバシー、フェデレート学習、迅速な暗号化といった既存のソリューションを体系的に分類する。
さらに、敵攻撃、メンバーシップ推論、サイドチャネル攻撃など、モバイルLLM特有の脆弱性を分析し、その効果と限界を詳細に比較する。
近年の進歩にもかかわらず、モバイルLLMは、資源制約のある環境での効率を維持しながら堅牢なセキュリティを実現する上で、ユニークなハードルに直面している。
このギャップを埋めるため、我々は潜在的なアプリケーションを提案し、オープンな課題を議論し、将来の研究方向性を提案し、信頼できるプライバシーに適合しスケーラブルなモバイルLLMシステムを開発するための道を開く。
関連論文リスト
- Large AI Model-Enabled Secure Communications in Low-Altitude Wireless Networks: Concepts, Perspectives and Case Study [92.15255222408636]
低高度無線ネットワーク(LAWN)は、様々なアプリケーションをサポートすることにより、通信に革命をもたらす可能性がある。
LAWNにおけるセキュア通信のための大規模人工知能モデル(LAM)対応ソリューションについて検討する。
LAWNにおけるセキュア通信のためのLAMの実用的メリットを示すために,新しいLAMベースの最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-01T01:53:58Z) - A Trustworthy Multi-LLM Network: Challenges,Solutions, and A Use Case [59.58213261128626]
複数の大規模言語モデル(LLM)を信頼性のあるマルチLLMネットワーク(MultiLLMN)に接続するブロックチェーン対応協調フレームワークを提案する。
このアーキテクチャは、複雑なネットワーク最適化問題に対する最も信頼性が高く高品質な応答の協調評価と選択を可能にする。
論文 参考訳(メタデータ) (2025-05-06T05:32:46Z) - Privacy-Preserving Large Language Models: Mechanisms, Applications, and Future Directions [0.0]
本調査では,大規模言語モデルに適したプライバシ保護機構の展望について考察する。
メンバーシップ推論やモデル逆転攻撃といった重要なプライバシー問題に対処する上での有効性を検討する。
本稿では、最先端のアプローチと今後のトレンドを合成することによって、堅牢でプライバシーに配慮した大規模言語モデルを構築するための基盤を提供する。
論文 参考訳(メタデータ) (2024-12-09T00:24:09Z) - Unique Security and Privacy Threats of Large Language Model: A Comprehensive Survey [46.19229410404056]
大規模言語モデル(LLM)は自然言語処理において顕著な進歩を遂げた。
これらのモデルは、強力な言語理解と生成能力を示すために、広大なデータセットでトレーニングされている。
プライバシーとセキュリティの問題は、そのライフサイクルを通じて明らかになっている。
論文 参考訳(メタデータ) (2024-06-12T07:55:32Z) - UNDIAL: Self-Distillation with Adjusted Logits for Robust Unlearning in Large Language Models [12.45822383965784]
本稿では,UnDIAL(Unlearning via Self-Distillation on Adjusted Logits)を紹介する。
本手法では, 自己蒸留を利用してロジットを調整し, ターゲットトークンの影響を選択的に低減する。
論文 参考訳(メタデータ) (2024-02-15T16:21:14Z) - Security and Privacy Challenges of Large Language Models: A Survey [2.6986500640871482]
LLM(Large Language Models)は、テキストの生成や要約、言語翻訳、質問応答など、非常に優れた機能を示し、複数の分野に貢献している。
これらのモデルは、Jailbreak攻撃、データ中毒攻撃、Personally Identible Information(PII)漏洩攻撃など、セキュリティやプライバシ攻撃にも脆弱である。
この調査では、トレーニングデータとユーザの両方に対するLLMのセキュリティとプライバシの課題と、輸送、教育、医療といったさまざまな領域におけるアプリケーションベースのリスクについて、徹底的にレビューする。
論文 参考訳(メタデータ) (2024-01-30T04:00:54Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。