論文の概要: LM-Scout: Analyzing the Security of Language Model Integration in Android Apps
- arxiv url: http://arxiv.org/abs/2505.08204v1
- Date: Tue, 13 May 2025 03:37:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.41439
- Title: LM-Scout: Analyzing the Security of Language Model Integration in Android Apps
- Title(参考訳): LM-Scout: Androidアプリにおける言語モデル統合のセキュリティの分析
- Authors: Muhammad Ibrahim, Gűliz Seray Tuncay, Z. Berkay Celik, Aravind Machiry, Antonio Bianchi,
- Abstract要約: 開発者はLanguage Models(LM)をモバイルアプリに統合し、チャットベースのアシスタントなどの機能を提供する。
LM統合が安全でない場合、攻撃者は制限をバイパスし、LMへの無制限アクセスを得ることができる。
本報告では,AndroidアプリによるLMの安全でない使用に関する最初の体系的研究について述べる。
- 参考スコア(独自算出の注目度): 19.696196061651268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developers are increasingly integrating Language Models (LMs) into their mobile apps to provide features such as chat-based assistants. To prevent LM misuse, they impose various restrictions, including limits on the number of queries, input length, and allowed topics. However, if the LM integration is insecure, attackers can bypass these restrictions and gain unrestricted access to the LM, potentially harming developers' reputations and leading to significant financial losses. This paper presents the first systematic study of insecure usage of LMs by Android apps. We first manually analyze a preliminary dataset of apps to investigate LM integration methods, construct a taxonomy that categorizes the LM usage restrictions implemented by the apps, and determine how to bypass them. Alarmingly, we can bypass restrictions in 127 out of 181 apps. Then, we develop LM-Scout, a fully automated tool to detect on a large-scale vulnerable usage of LMs in 2,950 mobile apps. LM-Scout shows that, in many cases (i.e., 120 apps), it is possible to find and exploit such security issues automatically. Finally, we identify the root causes for the identified issues and offer recommendations for secure LM integration.
- Abstract(参考訳): 開発者はLanguage Models(LM)をモバイルアプリに統合し、チャットベースのアシスタントなどの機能を提供する。
LMの誤用を防ぐため、クエリ数、入力長、許容トピックの制限など、さまざまな制限を課している。
しかし、LM統合が安全でない場合、攻撃者はこれらの制限を回避し、LMへの制限のないアクセスを得ることができ、開発者の評判を損なう可能性がある。
本報告では,AndroidアプリによるLMの安全でない使用に関する最初の体系的研究について述べる。
まず、アプリの予備データセットを手動で分析し、LM統合手法を調査し、アプリによって実施されるLM使用制限を分類する分類を構築し、それらをバイパスする方法を決定する。
すでに181のアプリのうち127の制限を回避できる。
LM-Scoutは,2,950のモバイルアプリにおいて,大規模に脆弱なLMの使用を検出する完全自動化ツールである。
LM-Scoutは、多くの場合(120のアプリ)、そのようなセキュリティ問題を自動的に見つけて悪用することができることを示している。
最後に、同定された問題の根本原因を特定し、セキュアなLM統合のためのレコメンデーションを提供する。
関連論文リスト
- On the (In)Security of LLM App Stores [5.667013605202579]
本研究では,LLMアプリの潜在的なセキュリティリスクを特定するための3層懸念フレームワークを提案する。
本研究は,静的および動的解析,大規模有毒単語辞書の開発,自動監視ツールを統合した。
15,146のアプリが誤解を招く説明をし、1,366件の個人情報をプライバシーポリシーに対して収集し、15,996件の有害なコンテンツを生成した。
論文 参考訳(メタデータ) (2024-07-11T12:03:32Z) - Self-Recognition in Language Models [10.649471089216489]
モデル生成型「セキュリティ問題」を用いたLMの自己認識評価手法を提案する。
現在公開されている最も有能なオープンソースかつクローズドなLMのうち10つにおいて、私たちのテストを使って自己認識を検証しています。
我々の結果は、一組の代替案が与えられた場合、LMはその起源に関係なく「ベスト」な答えを選択しようとすることを示唆している。
論文 参考訳(メタデータ) (2024-07-09T15:23:28Z) - Get my drift? Catching LLM Task Drift with Activation Deltas [55.75645403965326]
タスクドリフトは攻撃者がデータを流出させたり、LLMの出力に影響を与えたりすることを可能にする。
そこで, 簡易線形分類器は, 分布外テストセット上で, ほぼ完全なLOC AUCでドリフトを検出することができることを示す。
このアプローチは、プロンプトインジェクション、ジェイルブレイク、悪意のある指示など、目に見えないタスクドメインに対して驚くほどうまく一般化する。
論文 参考訳(メタデータ) (2024-06-02T16:53:21Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - Identifying and Mitigating Vulnerabilities in LLM-Integrated
Applications [37.316238236750415]
LLM統合アプリケーションのバックエンドとして,大規模言語モデル(LLM)がますます多くデプロイされている。
本研究では,ユーザとLLMがLLM統合アプリケーションを介して,中間で対話する環境について考察する。
悪意のあるアプリケーション開発者や外部からの脅威から生じる可能性のある潜在的な脆弱性を特定します。
我々は、内部の脅威と外部の脅威の両方を緩和する軽量で脅威に依存しない防御を開発する。
論文 参考訳(メタデータ) (2023-11-07T20:13:05Z) - Identifying the Risks of LM Agents with an LM-Emulated Sandbox [68.26587052548287]
言語モデル(LM)エージェントとツールは、豊富な機能セットを可能にすると同時に、潜在的なリスクを増幅する。
これらのエージェントを高いコストでテストすることは、高いリスクと長い尾のリスクを見つけるのをますます困難にします。
ツール実行をエミュレートするためにLMを使用し、さまざまなツールやシナリオに対してLMエージェントのテストを可能にするフレームワークであるToolEmuを紹介します。
論文 参考訳(メタデータ) (2023-09-25T17:08:02Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。