論文の概要: LLM App Squatting and Cloning
- arxiv url: http://arxiv.org/abs/2411.07518v1
- Date: Tue, 12 Nov 2024 03:32:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:17:34.604640
- Title: LLM App Squatting and Cloning
- Title(参考訳): LLMアプリスクワットとクローン
- Authors: Yinglin Xie, Xinyi Hou, Yanjie Zhao, Kai Chen, Haoyu Wang,
- Abstract要約: アプリのスクワットやアプリのクローンといった偽造戦術は、モバイルアプリストアで長年の課題を提起してきた。
我々は,LLMappCrazyというカスタムビルドツールを用いて,LLMアプリのスクワットとクローンの大規模解析を行った。
- 参考スコア(独自算出の注目度): 12.626589260776404
- License:
- Abstract: Impersonation tactics, such as app squatting and app cloning, have posed longstanding challenges in mobile app stores, where malicious actors exploit the names and reputations of popular apps to deceive users. With the rapid growth of Large Language Model (LLM) stores like GPT Store and FlowGPT, these issues have similarly surfaced, threatening the integrity of the LLM app ecosystem. In this study, we present the first large-scale analysis of LLM app squatting and cloning using our custom-built tool, LLMappCrazy. LLMappCrazy covers 14 squatting generation techniques and integrates Levenshtein distance and BERT-based semantic analysis to detect cloning by analyzing app functional similarities. Using this tool, we generated variations of the top 1000 app names and found over 5,000 squatting apps in the dataset. Additionally, we observed 3,509 squatting apps and 9,575 cloning cases across six major platforms. After sampling, we find that 18.7% of the squatting apps and 4.9% of the cloning apps exhibited malicious behavior, including phishing, malware distribution, fake content dissemination, and aggressive ad injection.
- Abstract(参考訳): アプリのしゃがみやアプリのクローンといった偽造戦術は、悪質なアクターが人気アプリの名前や評判を利用してユーザーを騙すという、モバイルアプリストアで長年の課題を提起してきた。
GPTストアやFlowGPTのようなLarge Language Model(LLM)ストアの急速な成長に伴い、これらの問題が表面化して、LLMアプリエコシステムの整合性を脅かしている。
本研究では, LLMappCrazyを用いて, LLMアプリのスクワットとクローンの大規模解析を行った。
LLMappCrazyは14個のスクワット生成技術をカバーし、Levenshtein距離とBERTに基づく意味解析を統合して、アプリの機能的類似性を分析してクローンを検出する。
このツールを使用して、上位1000のアプリ名のバリエーションを生成し、データセットに5000以上のスクワットアプリを見つけました。
さらに、6つの主要なプラットフォームで3,509のスクワットアプリと9,575のクローンケースが観察された。
サンプリングの結果、スクワットアプリの18.7%、クローンアプリの4.9%がフィッシング、マルウェアの配布、偽コンテンツの拡散、アグレッシブな広告インジェクションなどの悪意のある行動を示した。
関連論文リスト
- LLM-Cure: LLM-based Competitor User Review Analysis for Feature Enhancement [0.7285835869818668]
本稿では,大規模言語モデル(LLM)に基づく機能拡張のための競合ユーザレビュー分析を提案する。
LLM-Cureは、LCMを適用して、レビュー内の特徴を特定し、分類する。
LLM-Cureは、ユーザーレビューに苦情を付けると、苦情に関連する競合アプリの高い評価(4と5の星)のレビューをキュレートする。
論文 参考訳(メタデータ) (2024-09-24T04:17:21Z) - See What LLMs Cannot Answer: A Self-Challenge Framework for Uncovering LLM Weaknesses [51.975495361024606]
本稿では,Human-in-the-loopを用いたセルフチェレンジ評価フレームワークを提案する。
GPT-4が答えられないシードインスタンスから始めて、GPT-4に新しいインスタンスを生成するのに使えるエラーパターンを要約するように促します。
次に,GPT-4が生成する1,835個のインスタンスと,人手によるゴールド応答を併用したベンチマーク,SC-G4を構築した。
論文 参考訳(メタデータ) (2024-08-16T19:01:52Z) - Detecting and Characterising Mobile App Metamorphosis in Google Play Store [0.0]
本稿では, メタモルファスを行うアプリケーションを特定するための, 新規かつ効率的なマルチモーダル検索手法を提案する。
本手法は, 再生, 再ブランド, 再購入など, 様々な形態変化のシナリオを明らかにする。
われわれはセキュリティとプライバシーのリスクを隠蔽し、テクノロジーに精通したエンドユーザーにも影響を及ぼす可能性を秘めている。
論文 参考訳(メタデータ) (2024-07-19T03:26:40Z) - On the (In)Security of LLM App Stores [5.667013605202579]
本研究では,LLMアプリの潜在的なセキュリティリスクを特定するための3層懸念フレームワークを提案する。
本研究は,静的および動的解析,大規模有毒単語辞書の開発,自動監視ツールを統合した。
15,146のアプリが誤解を招く説明をし、1,366件の個人情報をプライバシーポリシーに対して収集し、15,996件の有害なコンテンツを生成した。
論文 参考訳(メタデータ) (2024-07-11T12:03:32Z) - Are you still on track!? Catching LLM Task Drift with Activations [55.75645403965326]
タスクドリフトは攻撃者がデータを流出させたり、LLMの出力に影響を与えたりすることを可能にする。
そこで, 簡易線形分類器は, 分布外テストセット上で, ほぼ完全なLOC AUCでドリフトを検出することができることを示す。
このアプローチは、プロンプトインジェクション、ジェイルブレイク、悪意のある指示など、目に見えないタスクドメインに対して驚くほどうまく一般化する。
論文 参考訳(メタデータ) (2024-06-02T16:53:21Z) - Images are Achilles' Heel of Alignment: Exploiting Visual Vulnerabilities for Jailbreaking Multimodal Large Language Models [107.88745040504887]
マルチモーダル大言語モデル(MLLM)の無害アライメント問題について検討する。
そこで本研究では,テキスト入力における悪意のある意図の有害性を隠蔽し,増幅する,HADESという新しいジェイルブレイク手法を提案する。
実験の結果、HADESは既存のMLLMを効果的にジェイルブレイクし、LLaVA-1.5では90.26%、Gemini Pro Visionでは71.60%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2024-03-14T18:24:55Z) - Tensor Trust: Interpretable Prompt Injection Attacks from an Online Game [86.66627242073724]
本稿では,126,000以上のプロンプトインジェクションと46,000以上のプロンプトベースのプロンプトインジェクションに対する「防御」のデータセットを提案する。
我々の知る限り、これは現在、命令追従 LLM に対する人間生成の敵例の最大のデータセットである。
また、データセットを使用して、2種類のプロンプトインジェクションに対する耐性のベンチマークを作成し、これをプロンプト抽出とプロンプトハイジャックと呼ぶ。
論文 参考訳(メタデータ) (2023-11-02T06:13:36Z) - SmoothLLM: Defending Large Language Models Against Jailbreaking Attacks [99.23352758320945]
SmoothLLMは,大規模言語モデル(LLM)に対するジェイルブレーキング攻撃を軽減するために設計された,最初のアルゴリズムである。
敵が生成したプロンプトが文字レベルの変化に対して脆弱であることから、我々の防衛はまず、与えられた入力プロンプトの複数のコピーをランダムに摂動し、対応する予測を集約し、敵の入力を検出する。
論文 参考訳(メタデータ) (2023-10-05T17:01:53Z) - Erasing Labor with Labor: Dark Patterns and Lockstep Behaviors on Google
Play [13.658284581863839]
Google Playのポリシーは、アプリの配置を操作するためのインセンティブ付きインストール、評価、レビューの使用を禁止している。
社会技術レンズによるインストールインセンティブアプリについて検討し、レビューとパーミッションの混合メソッド分析を行う。
私たちのデータセットには、60以上のアプリから5ヶ月以上にわたって収集された319万のレビューが含まれています。
インストールインセンティブのアプリに対する不正なレビューの証拠を見つけ、それに続いて、アプリとレビュアーの動的二部グラフのエッジストリームとしてモデル化します。
論文 参考訳(メタデータ) (2022-02-09T16:54:27Z) - Emerging App Issue Identification via Online Joint Sentiment-Topic
Tracing [66.57888248681303]
本稿では,MERITという新しい問題検出手法を提案する。
AOBSTモデルに基づいて、1つのアプリバージョンに対するユーザレビューに否定的に反映されたトピックを推測する。
Google PlayやAppleのApp Storeで人気のアプリに対する実験は、MERITの有効性を実証している。
論文 参考訳(メタデータ) (2020-08-23T06:34:05Z) - A Multi-modal Neural Embeddings Approach for Detecting Mobile
Counterfeit Apps: A Case Study on Google Play Store [4.5170827242233145]
本稿では、画像とテキストの埋め込みを作成するためのディープラーニング手法の最近の進歩を活用することを提案する。
本稿では,コンテンツ埋め込みとスタイル埋め込みを組み合わせた新しい手法が,画像類似性のためのベースライン手法よりも優れていることを示す。
われわれは、Google Play Storeから約120万のアプリを分析し、トップ10,000の人気アプリの偽造の可能性を特定した。
論文 参考訳(メタデータ) (2020-06-02T07:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。