論文の概要: Green Lighting ML: Confidentiality, Integrity, and Availability of
Machine Learning Systems in Deployment
- arxiv url: http://arxiv.org/abs/2007.04693v1
- Date: Thu, 9 Jul 2020 10:38:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 05:26:15.738036
- Title: Green Lighting ML: Confidentiality, Integrity, and Availability of
Machine Learning Systems in Deployment
- Title(参考訳): Green Lighting ML: デプロイメントにおけるマシンラーニングシステムの信頼性、統合性、可用性
- Authors: Abhishek Gupta, Erick Galinkin
- Abstract要約: プロダクション機械学習では、一般的にモデルを構築している人からモデルをデプロイしている人への手引きがある。
この手引きで、モデルデプロイメントを担当するエンジニアは、モデルの詳細を秘密にしないことが多い。
この問題を緩和するためには、モデルのプライバシとセキュリティを検証する自動化システムを開発する必要がある。
- 参考スコア(独自算出の注目度): 4.2317391919680425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Security and ethics are both core to ensuring that a machine learning system
can be trusted. In production machine learning, there is generally a hand-off
from those who build a model to those who deploy a model. In this hand-off, the
engineers responsible for model deployment are often not privy to the details
of the model and thus, the potential vulnerabilities associated with its usage,
exposure, or compromise. Techniques such as model theft, model inversion, or
model misuse may not be considered in model deployment, and so it is incumbent
upon data scientists and machine learning engineers to understand these
potential risks so they can communicate them to the engineers deploying and
hosting their models. This is an open problem in the machine learning community
and in order to help alleviate this issue, automated systems for validating
privacy and security of models need to be developed, which will help to lower
the burden of implementing these hand-offs and increasing the ubiquity of their
adoption.
- Abstract(参考訳): セキュリティと倫理の両方が、機械学習システムが信頼できることを保証するための核心である。
プロダクション機械学習では、一般的にモデルを構築している人からモデルをデプロイしている人への手引きがある。
このハンドオフでは、モデル展開を担当するエンジニアは、しばしば、モデルの詳細に依存しないため、その使用、露出、妥協に関連する潜在的な脆弱性が引き起こされる。
モデル盗難、モデル逆転、モデル誤用といったテクニックはモデルデプロイメントでは考慮されないため、データサイエンティストや機械学習エンジニアがこれらの潜在的なリスクを理解して、モデルをデプロイし、ホストするエンジニアに伝えることが可能である。
これは機械学習コミュニティのオープンな問題であり、この問題を軽減するためには、モデルのプライバシとセキュリティを検証する自動化システムを開発する必要がある。
関連論文リスト
- Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - Beimingwu: A Learnware Dock System [42.54363998206648]
本稿では,Beimingwuについて述べる。Beimingwuはオープンソースのラーニングウェアドックシステムであり,将来のラーニングウェアパラダイムの研究に基盤的支援を提供する。
このシステムは、統合アーキテクチャとエンジン設計のおかげで、新しいユーザータスクのためのモデル開発を大幅に効率化する。
特に、生データのセキュリティを損なうことなく、限られたデータと機械学習に関する最小限の専門知識を持つユーザでも、これは可能だ。
論文 参考訳(メタデータ) (2024-01-24T09:27:51Z) - Balancing Transparency and Risk: The Security and Privacy Risks of
Open-Source Machine Learning Models [31.658006126446175]
本稿では,オープンソースモデルの使用に伴う共通プライバシーとセキュリティの脅威について概観する。
これらの危険に対する認識を高めることで、私たちはAIシステムの責任と安全な利用を促進することに努めます。
論文 参考訳(メタデータ) (2023-08-18T11:59:15Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Learnware: Small Models Do Big [69.88234743773113]
自然言語処理やコンピュータビジョンの応用で目覚ましい成果を上げてきた、一般的なビッグモデルパラダイムは、これらの問題にまだ対応していないが、炭素排出量の深刻な源となっている。
この記事では、マシンラーニングモデルをスクラッチから構築する必要がないようにするための学習ソフトウェアパラダイムの概要を紹介します。
論文 参考訳(メタデータ) (2022-10-07T15:55:52Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Analyzing a Caching Model [7.378507865227209]
解釈容易性は、現実世界のデプロイメントにおいて、依然として大きな障害である。
現状のキャッシュモデルを分析することで、単純な統計以上の概念を学習したことを示す。
論文 参考訳(メタデータ) (2021-12-13T19:53:07Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - A Hierarchy of Limitations in Machine Learning [0.0]
本稿では,社会に応用された機械学習におけるモデルの概念的,手続き的,統計的制限の包括的,構造化された概要を論じる。
モデラー自身は、記述された階層を使って、可能な障害点を特定し、それらに対処する方法を考えることができます。
機械学習モデルの消費者は、機械学習を適用するかどうか、場所、方法に関する決定に直面したときに、何を問うべきかを知ることができる。
論文 参考訳(メタデータ) (2020-02-12T19:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。