論文の概要: Machine Learning Models Have a Supply Chain Problem
- arxiv url: http://arxiv.org/abs/2505.22778v1
- Date: Wed, 28 May 2025 18:47:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.487615
- Title: Machine Learning Models Have a Supply Chain Problem
- Title(参考訳): 機械学習モデルにサプライチェーンの問題
- Authors: Sarah Meiklejohn, Hayden Blauzvern, Mihai Maruseac, Spencer Schrock, Laurent Simon, Ilia Shumailov,
- Abstract要約: オープンMLモデルの現在のエコシステムには、サプライチェーンの重大なリスクがある、と私たちは主張する。
これには、モデルを悪意のあるものに置き換えるアタッカーが含まれる。
次に、オープンなMLモデルに透明性をもたらすために、Sigstoreをどのように使用できるかを検討します。
- 参考スコア(独自算出の注目度): 12.386549415284259
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Powerful machine learning (ML) models are now readily available online, which creates exciting possibilities for users who lack the deep technical expertise or substantial computing resources needed to develop them. On the other hand, this type of open ecosystem comes with many risks. In this paper, we argue that the current ecosystem for open ML models contains significant supply-chain risks, some of which have been exploited already in real attacks. These include an attacker replacing a model with something malicious (e.g., malware), or a model being trained using a vulnerable version of a framework or on restricted or poisoned data. We then explore how Sigstore, a solution designed to bring transparency to open-source software supply chains, can be used to bring transparency to open ML models, in terms of enabling model publishers to sign their models and prove properties about the datasets they use.
- Abstract(参考訳): 強力な機械学習(ML)モデルがオンラインで利用可能になったことで、高度な技術的専門知識やそれを開発するために必要なコンピューティングリソースが欠如しているユーザにとって、エキサイティングな可能性を生み出します。
一方で、この種のオープンなエコシステムには、多くのリスクがあります。
本稿では、オープンMLモデルの現在のエコシステムには、サプライチェーンの重大なリスクがあり、その一部は、すでに実際の攻撃で活用されていると論じる。
これには、モデルから悪意のあるもの(例えばマルウェア)に置き換えるアタッカーや、フレームワークの脆弱なバージョンや制限されたデータ、あるいは有毒なデータでトレーニングされているモデルが含まれる。
次に、オープンソースのソフトウェアサプライチェーンに透明性をもたらすために設計されたソリューションであるSigstoreを、モデルパブリッシャがモデルに署名し、使用するデータセットに関するプロパティを証明できるようにして、オープンMLモデルに透明性をもたらす方法を探る。
関連論文リスト
- Mitigating Downstream Model Risks via Model Provenance [28.390839690707256]
モデルレコードの作成を簡単にするための機械可読モデル仕様フォーマットを提案する。
私たちのソリューションは、アップストリームモデルとダウンストリームモデルの関係を明確にトレースし、透明性とトレーサビリティを向上します。
この概念実証の目的は、基礎モデルを管理するための新しい標準を設定し、イノベーションと責任あるモデル管理のギャップを埋めることである。
論文 参考訳(メタデータ) (2024-10-03T05:52:15Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Privacy and Security Implications of Cloud-Based AI Services : A Survey [4.1964397179107085]
この記事では、今日のクラウドエコシステムにおけるプライバシとセキュリティの状況について詳述する。
機械学習モデルによってもたらされるリスクに対処する上で、ギャップがあることを識別する。
論文 参考訳(メタデータ) (2024-01-31T13:30:20Z) - Towards Scalable and Robust Model Versioning [30.249607205048125]
ディープラーニングモデルへのアクセスを目的とした悪意ある侵入が増えている。
異なる攻撃特性を持つモデルの複数バージョンを生成する方法を示す。
モデル学習データにパラメータ化された隠れ分布を組み込むことでこれを実現できることを示す。
論文 参考訳(メタデータ) (2024-01-17T19:55:49Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - MOVE: Effective and Harmless Ownership Verification via Embedded External Features [104.97541464349581]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
次に、メタ分類器をトレーニングして、モデルが被害者から盗まれたかどうかを判断します。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Green Lighting ML: Confidentiality, Integrity, and Availability of
Machine Learning Systems in Deployment [4.2317391919680425]
プロダクション機械学習では、一般的にモデルを構築している人からモデルをデプロイしている人への手引きがある。
この手引きで、モデルデプロイメントを担当するエンジニアは、モデルの詳細を秘密にしないことが多い。
この問題を緩和するためには、モデルのプライバシとセキュリティを検証する自動化システムを開発する必要がある。
論文 参考訳(メタデータ) (2020-07-09T10:38:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。