論文の概要: When Secure Isn't: Assessing the Security of Machine Learning Model Sharing
- arxiv url: http://arxiv.org/abs/2509.06703v1
- Date: Mon, 08 Sep 2025 13:55:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.176538
- Title: When Secure Isn't: Assessing the Security of Machine Learning Model Sharing
- Title(参考訳): セキュアでないとき - 機械学習モデル共有のセキュリティを評価する
- Authors: Gabriele Digregorio, Marco Di Gennaro, Stefano Zanero, Stefano Longari, Michele Carminati,
- Abstract要約: 我々は,フレームワークやハブのセキュリティ姿勢を評価し,セキュリティ指向のメカニズムが真の保護を提供するかどうかを評価し,モデル共有を取り巻くセキュリティの物語をどのように捉えているかを調査した。
私たちの評価によると、ほとんどのフレームワークやハブは、セキュリティリスクに部分的に対処しています。
我々は、モデル共有問題が大半が解決され、そのセキュリティが共有に使用されるファイル形式によって保証されるという誤解を軽視する。
- 参考スコア(独自算出の注目度): 5.493595534345332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of model-sharing through frameworks and dedicated hubs makes Machine Learning significantly more accessible. Despite their benefits, these tools expose users to underexplored security risks, while security awareness remains limited among both practitioners and developers. To enable a more security-conscious culture in Machine Learning model sharing, in this paper we evaluate the security posture of frameworks and hubs, assess whether security-oriented mechanisms offer real protection, and survey how users perceive the security narratives surrounding model sharing. Our evaluation shows that most frameworks and hubs address security risks partially at best, often by shifting responsibility to the user. More concerningly, our analysis of frameworks advertising security-oriented settings and complete model sharing uncovered six 0-day vulnerabilities enabling arbitrary code execution. Through this analysis, we debunk the misconceptions that the model-sharing problem is largely solved and that its security can be guaranteed by the file format used for sharing. As expected, our survey shows that the surrounding security narrative leads users to consider security-oriented settings as trustworthy, despite the weaknesses shown in this work. From this, we derive takeaways and suggestions to strengthen the security of model-sharing ecosystems.
- Abstract(参考訳): フレームワークと専用ハブによるモデル共有の台頭は、機械学習をはるかに利用しやすくしている。
それらのメリットにもかかわらず、これらのツールはユーザを過小評価されたセキュリティリスクに晒し、一方、セキュリティの認識は実践者や開発者の両方に限られている。
本稿では,機械学習モデル共有において,よりセキュリティ重視の文化を実現するために,フレームワークやハブのセキュリティ姿勢を評価し,セキュリティ指向のメカニズムが真の保護を提供するかどうかを評価し,モデル共有を取り巻くセキュリティの物語をどのように捉えているのかを調査する。
私たちの評価によると、ほとんどのフレームワークやハブは、セキュリティリスクに部分的に対処しています。
より詳しくは、セキュリティ指向の設定と完全なモデル共有を宣伝するフレームワークの分析により、任意のコード実行を可能にする6つの0日間の脆弱性が明らかになった。
この分析を通じて、モデル共有問題が大きく解決され、そのセキュリティが共有に使用されるファイル形式によって保証されるという誤解を解消する。
予想通り、私たちの調査では、この研究で示された弱点にもかかわらず、周囲のセキュリティに関する物語が、セキュリティ指向のセッティングを信頼できるものとみなすことが示されています。
そこから、モデル共有エコシステムのセキュリティを強化するための取組みと提案を導き出します。
関連論文リスト
- SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - SafeKey: Amplifying Aha-Moment Insights for Safety Reasoning [76.56522719330911]
大規模推論モデル(LRM)は、応答する前に明示的に推論する新しい世代パラダイムを導入する。
LRMは有害なクエリや敵の攻撃に対して大きな安全リスクをもたらす。
キー文中の安全アハモーメントをより活性化するSafeKeyを提案する。
論文 参考訳(メタデータ) (2025-05-22T03:46:03Z) - Towards Trustworthy GUI Agents: A Survey [64.6445117343499]
本調査では,GUIエージェントの信頼性を5つの重要な次元で検証する。
敵攻撃に対する脆弱性、シーケンシャルな意思決定における障害モードのカスケードなど、大きな課題を特定します。
GUIエージェントが普及するにつれて、堅牢な安全基準と責任ある開発プラクティスを確立することが不可欠である。
論文 参考訳(メタデータ) (2025-03-30T13:26:00Z) - Building a Cybersecurity Risk Metamodel for Improved Method and Tool Integration [0.38073142980732994]
我々は,初期リスク分析にモデル駆動アプローチを適用した経験を,その後のセキュリティテストに関連して報告する。
私たちの仕事は、さまざまなツール間で情報のトレーサビリティをマップ、同期、保証するために使用される共通のメタモデルに依存しています。
論文 参考訳(メタデータ) (2024-09-12T10:18:26Z) - Trust, but Verify: Evaluating Developer Behavior in Mitigating Security Vulnerabilities in Open-Source Software Projects [0.11999555634662631]
本研究では,オープンソースソフトウェア(OSS)プロジェクトの依存関係の脆弱性について検討する。
古い依存関係やメンテナンスされていない依存関係に共通する問題を特定しました。
その結果, 直接的な依存関係の削減と, 強力なセキュリティ記録を持つ高度に確立されたライブラリの優先順位付けが, ソフトウェアセキュリティの状況を改善する効果的な戦略であることが示唆された。
論文 参考訳(メタデータ) (2024-08-26T13:46:48Z) - Securing Federated Learning with Control-Flow Attestation: A Novel Framework for Enhanced Integrity and Resilience against Adversarial Attacks [2.28438857884398]
分散機械学習パラダイムとしてのフェデレートラーニング(FL)は、新たなサイバーセキュリティ課題を導入した。
本研究では,従来サイバーセキュリティに用いられてきた制御フロー(CFA)機構にインスパイアされた,革新的なセキュリティフレームワークを提案する。
我々は、ネットワーク全体にわたるモデル更新の完全性を認証し、検証し、モデル中毒や敵対的干渉に関連するリスクを効果的に軽減する。
論文 参考訳(メタデータ) (2024-03-15T04:03:34Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Do Software Security Practices Yield Fewer Vulnerabilities? [6.6840472845873276]
本研究の目的は、専門家や研究者がどのセキュリティプラクティスを採用するべきかを判断するのを支援することである。
4つのセキュリティプラクティスが、脆弱性数に影響を与える最も重要なプラクティスでした。
パッケージの総セキュリティスコアが増加するにつれて、報告された脆弱性の数は減少した。
論文 参考訳(メタデータ) (2022-10-20T20:04:02Z) - Risk Management Framework for Machine Learning Security [7.678455181587705]
機械学習モデルに対する敵意攻撃は、学界と産業の両方で非常に研究されているトピックとなっている。
本稿では,機械学習モデルに依存する組織に対して,リスク管理プロセスを導くための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-12-09T06:21:34Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。