論文の概要: An Empirical Study on Remote Code Execution in Machine Learning Model Hosting Ecosystems
- arxiv url: http://arxiv.org/abs/2601.14163v1
- Date: Tue, 20 Jan 2026 17:13:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.426093
- Title: An Empirical Study on Remote Code Execution in Machine Learning Model Hosting Ecosystems
- Title(参考訳): 機械学習モデルホスティング生態系におけるリモートコード実行に関する実証的研究
- Authors: Mohammed Latif Siddiq, Tanzim Hossain Romel, Natalie Sekerak, Beatrice Casey, Joanna C. S. Santos,
- Abstract要約: モデルローディング中の信頼できないコードの実行は、モデル共有プラットフォームに対するセキュリティ上の懸念である。
5つの主要なモデル共有プラットフォームにわたるカスタムモデルローディングプラクティスに関する、最初の大規模な実証的研究を行います。
- 参考スコア(独自算出の注目度): 4.409447722044799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model-sharing platforms, such as Hugging Face, ModelScope, and OpenCSG, have become central to modern machine learning development, enabling developers to share, load, and fine-tune pre-trained models with minimal effort. However, the flexibility of these ecosystems introduces a critical security concern: the execution of untrusted code during model loading (i.e., via trust_remote_code or trust_repo). In this work, we conduct the first large-scale empirical study of custom model loading practices across five major model-sharing platforms to assess their prevalence, associated risks, and developer perceptions. We first quantify the frequency with which models require custom code to function and identify those that execute arbitrary Python files during loading. We then apply three complementary static analysis tools: Bandit, CodeQL, and Semgrep, to detect security smells and potential vulnerabilities, categorizing our findings by CWE identifiers to provide a standardized risk taxonomy. We also use YARA to identify malicious patterns and payload signatures. In parallel, we systematically analyze the documentation, API design, and safety mechanisms of each platform to understand their mitigation strategies and enforcement levels. Finally, we conduct a qualitative analysis of over 600 developer discussions from GitHub, Hugging Face, and PyTorch Hub forums, as well as Stack Overflow, to capture community concerns and misconceptions regarding security and usability. Our findings reveal widespread reliance on unsafe defaults, uneven security enforcement across platforms, and persistent confusion among developers about the implications of executing remote code. We conclude with actionable recommendations for designing safer model-sharing infrastructures and striking a balance between usability and security in future AI ecosystems.
- Abstract(参考訳): Hugging Face、ModelScope、OpenCSGといったモデル共有プラットフォームは、開発者が最小限の努力でトレーニング済みモデルの共有、ロード、微調整を可能にする、現代的な機械学習開発の中心となっている。
しかし、これらのエコシステムの柔軟性は、モデルローディング中の信頼できないコードの実行(Trust_remote_codeまたはTrust_repo経由)という、重要なセキュリティ上の懸念をもたらす。
本研究では,5つの主要なモデル共有プラットフォームにまたがるカスタムモデルローディングプラクティスに関する大規模な実証的研究を行い,その有病率,関連するリスク,開発者の認識を評価した。
まず、ロード中に任意のPythonファイルを実行する場合に、モデルを機能させ、識別するためにカスタムコードを必要とする頻度を定量化する。
次に、セキュリティの臭いや潜在的な脆弱性を検出するために、Bandit、CodeQL、Semgrepの3つの補完的な静的解析ツールを適用します。
また、悪意あるパターンやペイロードシグネチャを識別するためにYARAを使用します。
並行して、各プラットフォームのドキュメンテーション、API設計、安全性メカニズムを体系的に分析し、それらの緩和戦略と実施レベルを理解する。
最後に、GitHub、Hugging Face、PyTorch Hubフォーラム、およびStack Overflowからの600以上の開発者ディスカッションの質的な分析を行い、セキュリティとユーザビリティに関するコミュニティの懸念と誤解を捉えます。
我々の発見は、安全でないデフォルト、プラットフォーム間の不均一なセキュリティ執行、そしてリモートコードの実行がもたらす影響について、開発者の間での絶え間ない混乱に広く依存していることを明らかにする。
私たちは、安全なモデル共有インフラストラクチャを設計し、将来のAIエコシステムにおけるユーザビリティとセキュリティのバランスを崩すための実用的な推奨で締めくくります。
関連論文リスト
- OS-Sentinel: Towards Safety-Enhanced Mobile GUI Agents via Hybrid Validation in Realistic Workflows [77.95511352806261]
VLM(Vision-Language Models)を利用したコンピュータ利用エージェントは、モバイルプラットフォームのようなデジタル環境を操作する上で、人間のような能力を実証している。
我々は,明示的なシステムレベルの違反を検出するための形式検証器と,文脈的リスクとエージェント行動を評価するコンテキスト判断器を組み合わせた,新しいハイブリッド安全検出フレームワークOS-Sentinelを提案する。
論文 参考訳(メタデータ) (2025-10-28T13:22:39Z) - When Secure Isn't: Assessing the Security of Machine Learning Model Sharing [5.493595534345332]
我々は,フレームワークやハブのセキュリティ姿勢を評価し,セキュリティ指向のメカニズムが真の保護を提供するかどうかを評価し,モデル共有を取り巻くセキュリティの物語をどのように捉えているかを調査した。
私たちの評価によると、ほとんどのフレームワークやハブは、セキュリティリスクに部分的に対処しています。
我々は、モデル共有問題が大半が解決され、そのセキュリティが共有に使用されるファイル形式によって保証されるという誤解を軽視する。
論文 参考訳(メタデータ) (2025-09-08T13:55:54Z) - A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - A Rusty Link in the AI Supply Chain: Detecting Evil Configurations in Model Repositories [9.095642871258455]
本研究は,Hugging Face上での悪意のある構成に関する最初の包括的研究である。
特に、元々モデルの設定を意図した設定ファイルは、不正なコードを実行するために利用することができる。
論文 参考訳(メタデータ) (2025-05-02T07:16:20Z) - TrustRAG: Enhancing Robustness and Trustworthiness in Retrieval-Augmented Generation [31.231916859341865]
TrustRAGは、生成のために取得される前に、悪意のある、無関係なコンテンツを体系的にフィルタリングするフレームワークである。
TrustRAGは、検索精度、効率、攻撃抵抗を大幅に改善する。
論文 参考訳(メタデータ) (2025-01-01T15:57:34Z) - SeCodePLT: A Unified Platform for Evaluating the Security of Code GenAI [58.29510889419971]
コード生成大型言語モデル(LLM)のセキュリティリスクと能力を評価するための既存のベンチマークは、いくつかの重要な制限に直面している。
手動で検証し、高品質なシード例から始める、汎用的でスケーラブルなベンチマーク構築フレームワークを導入し、ターゲット突然変異を通じて拡張する。
このフレームワークをPython、C/C++、Javaに適用すると、44のCWEベースのリスクカテゴリと3つのセキュリティ機能にまたがる5.9k以上のサンプルデータセットであるSeCodePLTが構築されます。
論文 参考訳(メタデータ) (2024-10-14T21:17:22Z) - Models Are Codes: Towards Measuring Malicious Code Poisoning Attacks on Pre-trained Model Hubs [10.252989233081395]
本稿では,Hugging Faceプラットフォームに着目した,事前訓練されたモデルハブに対する悪意のあるコード中毒攻撃に関する最初の系統的研究について述べる。
我々は、データセット読み込みスクリプト抽出、モデルデシリアライズ、パターンマッチングを組み合わせたHugging Face用に設計されたエンドツーエンドパイプラインであるMalHugを提案する。
MalHugは705Kモデルと176Kデータセットを監視し、91の悪意のあるモデルと9の悪意のあるデータセット読み込みスクリプトを発見した。
論文 参考訳(メタデータ) (2024-09-14T08:47:22Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。