論文の概要: Laminator: Verifiable ML Property Cards using Hardware-assisted Attestations
- arxiv url: http://arxiv.org/abs/2406.17548v1
- Date: Tue, 25 Jun 2024 13:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 13:11:55.535873
- Title: Laminator: Verifiable ML Property Cards using Hardware-assisted Attestations
- Title(参考訳): Laminator: ハードウェアアシストによる検証によるMLプロパティカードの検証
- Authors: Vasisht Duddu, Oskari Järvinen, Lachlan J Gunn, N Asokan,
- Abstract要約: 悪意のあるモデルプロバイダは、MLプロパティカードに偽情報を含めることができ、MLプロパティカードの必要性を高めることができる。
実証者(例えば、モデル提供者)が、訓練中に異なるMLプロパティを証明し、検証者(例えば、監査者)に推論する技術メカニズムを用いて、それらを実現する方法を示す。
- 参考スコア(独自算出の注目度): 10.278905067763686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regulations increasingly call for various assurances from machine learning (ML) model providers about their training data, training process, and the behavior of resulting models during inference. For better transparency, companies (e.g., Huggingface and Google) have adopted model cards and datasheets which describe different properties of the training datasets and models. In the same vein, we introduce the notion of an inference card to describe the properties of a given inference (e.g., binding output to the model and its corresponding input). We collectively refer to these as ML property cards. A malicious model provider can include false information in ML property cards, raising a need for verifiable ML property cards. We show how to realized them using property attestation, technical mechanisms by which a prover (e.g., a model provider) can attest different ML properties during training and inference to a verifier (e.g., an auditor). However, prior attestation mechanisms based purely on cryptography are often narrowly focused (lacking versatility) and inefficient. There is a need to efficiently attest different types properties across the ML model training and inference pipeline. Recent developments make it possible to run and even train models inside hardware-assisted trusted execution environments (TEEs), which can provide highly efficient attestation. We propose Laminator, the first framework for verifiable ML property cards using hardware-assisted ML property attestations to efficiently furnish attestations for various ML properties for training and inference. It scales to multiple verifiers, and is independent of the model configuration.
- Abstract(参考訳): 機械学習(ML)モデルプロバイダから、トレーニングデータ、トレーニングプロセス、推論中の結果モデルの振る舞いについて、さまざまな保証を求める規制が増えている。
透明性を高めるために、企業(HugingfaceやGoogleなど)は、トレーニングデータセットとモデルのさまざまな特性を記述するモデルカードとデータシートを採用した。
同じ静脈において、与えられた推論の特性(例えば、モデルとその対応する入力への結合出力)を記述するための推論カードの概念を導入する。
これをMLプロパティカードと呼ぶ。
悪意のあるモデルプロバイダは、MLプロパティカードに偽情報を含めることができるため、MLプロパティカードを検証する必要が生じる。
本稿では,証明者(例えばモデル提供者)が学習中に異なるML特性を証明し,検証者(例えば監査者)に推論する方法を示す。
しかし、純粋に暗号に基づく事前証明機構は、しばしば狭義に焦点が当てられ(汎用性を損なう)、非効率である。
MLモデルのトレーニングと推論パイプライン全体で、さまざまな型プロパティを効率よく検証する必要がある。
近年の進歩により、ハードウェア支援された信頼できる実行環境(TEE)内でモデルを実行およびトレーニングすることが可能になり、高い効率の検証が可能になる。
本稿では,ハードウェア支援MLプロパティ証明を用いたMLプロパティカードの検証のための最初のフレームワークであるLaminatorを提案する。
複数の検証器にスケールし、モデル構成とは独立している。
関連論文リスト
- DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - Attesting Distributional Properties of Training Data for Machine Learning [15.2927830843089]
いくつかの管轄区域は、機械学習の規制フレームワークを準備している。
ドラフト規則は、トレーニングデータセットが特定の分散特性を持つことを示すために、モデルトレーナーが必要であることを示している。
本研究では,証明者がデータを明らかにすることなく,学習データの適切な分布特性を検証者に示すことのできる特性証明の概念を提案する。
論文 参考訳(メタデータ) (2023-08-18T13:33:02Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Predicting is not Understanding: Recognizing and Addressing
Underspecification in Machine Learning [47.651130958272155]
下位仕様とは、ドメイン内の精度で区別できない複数のモデルの存在を指す。
我々は、不特定概念を形式化し、それを特定し、部分的に対処する方法を提案する。
論文 参考訳(メタデータ) (2022-07-06T11:20:40Z) - Specifying and Testing $k$-Safety Properties for Machine-Learning Models [20.24045879238586]
フォーマルなメソッドで使われる仕様からインスピレーションを得て、$k$の異なる実行、いわゆる$k$-safetyプロパティを表現します。
ここでは、機械学習モデルに対する$k$-safetyプロパティの幅広い適用性を示し、それらを表現するための最初の仕様言語を示す。
我々のフレームワークは、プロパティ違反を特定するのに有効であり、検出されたバグはより良いモデルのトレーニングに使用できる。
論文 参考訳(メタデータ) (2022-06-13T11:35:55Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided
Adaptation [68.30497162547768]
本研究では,Mixture-of-Experts構造を用いてモデルキャパシティと推論速度を向上させるMoEBERTを提案する。
自然言語理解と質問応答タスクにおけるMoEBERTの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2022-04-15T23:19:37Z) - The Care Label Concept: A Certification Suite for Trustworthy and
Resource-Aware Machine Learning [5.684803689061448]
機械学習アプリケーションがユビキタスになった。これにより、マシンラーニングを信頼できるものにするための努力が増えた。
メソッドや学習モデルを理解するために時間を費やしたくない人のために、ケアラベルを提供しています。
ケアラベルは、保証が保持されているかどうかをテストする認定スイートの結果です。
論文 参考訳(メタデータ) (2021-06-01T14:16:41Z) - Proof-of-Learning: Definitions and Practice [15.585184189361486]
トレーニングマシンラーニング(ML)モデルは通常、高価な反復最適化を伴う。
現在、これらのパラメータが実際にこの最適化手順の結果であることを証明するためにモデルを訓練したエンティティのメカニズムはありません。
本稿では,MLにおける学習の証明という概念を紹介する。
論文 参考訳(メタデータ) (2021-03-09T18:59:54Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。