論文の概要: Safe machine learning model release from Trusted Research Environments: The SACRO-ML package
- arxiv url: http://arxiv.org/abs/2212.01233v3
- Date: Thu, 24 Oct 2024 12:33:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 16:43:07.822351
- Title: Safe machine learning model release from Trusted Research Environments: The SACRO-ML package
- Title(参考訳): Trusted Research Environmentsによる安全な機械学習モデルリリース: SACRO-MLパッケージ
- Authors: Jim Smith, Richard J. Preen, Andrew McCarthy, Maha Albashir, Alba Crespi-Boixader, Shahzad Mumtaz, James Liley, Simon Rogers, Yola Jones,
- Abstract要約: 我々は,オープンソースPythonツールの統合スイートであるSACRO-MLを紹介し,公開リリース前に機密データに基づいてトレーニングされた機械学習(ML)モデルの統計的開示制御(SDC)を容易にする。
SACRO-MLは(i)訓練体制によって引き起こされる開示の脆弱性を評価することによって、一般的なMLモデルを拡張してアンテホックなSDCを提供するSafeModelパッケージと、(ii)訓練後の様々な模擬攻撃を通じてモデルの経験的開示リスクを厳格に評価することによって、ポストホックなSDCを提供するAttacksパッケージを組み合わせる。
- 参考スコア(独自算出の注目度): 0.46435896353765527
- License:
- Abstract: We present SACRO-ML, an integrated suite of open source Python tools to facilitate the statistical disclosure control (SDC) of machine learning (ML) models trained on confidential data prior to public release. SACRO-ML combines (i) a SafeModel package that extends commonly used ML models to provide ante-hoc SDC by assessing the vulnerability of disclosure posed by the training regime; and (ii) an Attacks package that provides post-hoc SDC by rigorously assessing the empirical disclosure risk of a model through a variety of simulated attacks after training. The SACRO-ML code and documentation are available under an MIT license at https://github.com/AI-SDC/SACRO-ML
- Abstract(参考訳): 我々は,オープンソースPythonツールの統合スイートであるSACRO-MLを紹介し,公開リリース前に機密データに基づいてトレーニングされた機械学習(ML)モデルの統計的開示制御(SDC)を容易にする。
SACRO-ML コンバイン
(i)訓練体制による開示の脆弱性を評価することにより、一般的なMLモデルを拡張してアンテホットなSDCを提供するSafeModelパッケージ。
(II)訓練後の様々なシミュレートされた攻撃を通じて、モデルの実証的開示リスクを厳格に評価することにより、ポストホックSDCを提供するアタックパッケージ。
SACRO-MLのコードとドキュメントはMITライセンスでhttps://github.com/AI-SDC/SACRO-MLで入手できる。
関連論文リスト
- Improved Diversity-Promoting Collaborative Metric Learning for Recommendation [127.08043409083687]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T07:44:48Z) - Evaluating Large Language Model based Personal Information Extraction and Countermeasures [63.91918057570824]
大規模言語モデル(LLM)は、攻撃者が個人プロファイルから様々な個人情報を正確に抽出するために誤用することができる。
LLMはそのような抽出において従来の方法より優れている。
即時注射は、そのようなリスクを広範囲に軽減し、従来の対策より優れている。
論文 参考訳(メタデータ) (2024-08-14T04:49:30Z) - A Method to Facilitate Membership Inference Attacks in Deep Learning Models [5.724311218570013]
我々は,従来の技術よりも厳格に強力な新たな会員推論攻撃を実演する。
私たちの攻撃は、敵がすべてのトレーニングサンプルを確実に識別する権限を与えます。
これらのモデルは、共通の会員プライバシー監査の下で、増幅された会員リークを効果的に偽装できることを示す。
論文 参考訳(メタデータ) (2024-07-02T03:33:42Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Beyond Labeling Oracles: What does it mean to steal ML models? [52.63413852460003]
モデル抽出攻撃は、クエリアクセスのみで訓練されたモデルを盗むように設計されている。
モデル抽出攻撃の成功に影響を及ぼす要因について検討する。
我々は,ME攻撃の敵の目標を再定義するようコミュニティに促した。
論文 参考訳(メタデータ) (2023-10-03T11:10:21Z) - A multi-language toolkit for supporting automated checking of research outputs [0.44998333629984877]
acroは、公開が安全な研究出力、さらなる分析を必要とする出力、プライベートデータを開示する重大なリスクを生じるため公開できない出力の2つを区別する。
これは、テーブル、プロット、統計モデルなどの出力を生成するよく知られた分析ツールの上に置かれる軽量Pythonラッパーを使用することで実現される。
論文 参考訳(メタデータ) (2022-12-06T12:45:15Z) - Threat Assessment in Machine Learning based Systems [12.031113181911627]
我々は機械学習に基づくシステムに対して報告された脅威を実証研究する。
この研究は、MITREのATLASデータベース、AIインシデントデータベース、および文学からの89の現実世界のML攻撃シナリオに基づいている。
その結果,畳み込みニューラルネットワークは攻撃シナリオの中でも最も標的となるモデルの一つであることがわかった。
論文 参考訳(メタデータ) (2022-06-30T20:19:50Z) - MRCpy: A Library for Minimax Risk Classifiers [10.380882297891272]
PythonライブラリであるMRCpyは、ロバストリスク最小化(RRM)アプローチに基づいて、ミニマックスリスク分類器(MRC)を実装している。
MRCpyは、Scikit-learnのような人気のあるPythonライブラリの標準に従い、可読性と使いやすさと、他のライブラリとのシームレスな統合を容易にする。
論文 参考訳(メタデータ) (2021-08-04T10:31:20Z) - Enabling Un-/Semi-Supervised Machine Learning for MDSE of the Real-World
CPS/IoT Applications [0.5156484100374059]
我々は、スマートサイバー物理システム(CPS)とIoT(Internet of Things)の現実的なユースケースシナリオに対して、ドメイン固有モデル駆動ソフトウェアエンジニアリング(MDSE)をサポートする新しいアプローチを提案する。
人工知能(AI)の本質において利用可能なデータの大部分はラベルが付けられていないと我々は主張する。したがって、教師なしおよび/または半教師なしのMLアプローチが実践的な選択である。
提案手法は,既存の最先端MDSEツールと完全に実装され,CPS/IoTドメインを提供する。
論文 参考訳(メタデータ) (2021-07-06T15:51:39Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。