論文の概要: ModelGuard: Runtime Validation of Lipschitz-continuous Models
- arxiv url: http://arxiv.org/abs/2104.15006v1
- Date: Fri, 30 Apr 2021 13:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 13:26:14.493084
- Title: ModelGuard: Runtime Validation of Lipschitz-continuous Models
- Title(参考訳): ModelGuard: Lipschitz-Continuous Modelのランタイムバリデーション
- Authors: Taylor J. Carpenter, Radoslav Ivanov, Insup Lee, James Weimer
- Abstract要約: modelguardは、リプシッツ連続モデルのランタイムモデル検証のためのサンプリングベースのアプローチである。
一貫性のあるラベル付きトレースの正しさを保証し、一貫性のないラベル付きトレースの正しさを確信できることを示す。
- 参考スコア(独自算出の注目度): 4.674053902991301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents ModelGuard, a sampling-based approach to runtime model
validation for Lipschitz-continuous models. Although techniques exist for the
validation of many classes of models the majority of these methods cannot be
applied to the whole of Lipschitz-continuous models, which includes neural
network models. Additionally, existing techniques generally consider only
white-box models. By taking a sampling-based approach, we can address black-box
models, represented only by an input-output relationship and a Lipschitz
constant. We show that by randomly sampling from a parameter space and
evaluating the model, it is possible to guarantee the correctness of traces
labeled consistent and provide a confidence on the correctness of traces
labeled inconsistent. We evaluate the applicability and scalability of
ModelGuard in three case studies, including a physical platform.
- Abstract(参考訳): 本稿では,Lipschitz-Continuousモデルに対する実行モデル検証のためのサンプリングベースアプローチであるModelGuardを提案する。
多くの種類のモデルの検証技術が存在するが、これらの手法の大部分は、ニューラルネットワークモデルを含むリプシッツ連続モデル全体に適用することはできない。
加えて、既存の技術は一般にホワイトボックスモデルのみを考慮する。
サンプリングベースのアプローチを採用することで、入出力関係とリプシッツ定数によってのみ表現されるブラックボックスモデルに対処できる。
パラメータ空間からランダムにサンプリングし、モデルを評価することにより、ラベル付きトレースの正確性を保証することができ、一貫性のないラベル付きトレースの正確性に対する信頼性が得られることを示す。
物理プラットフォームを含む3つのケーススタディにおいて,modelguardの適用可能性とスケーラビリティを評価した。
関連論文リスト
- Verifiable evaluations of machine learning models using zkSNARKs [40.538081946945596]
本研究は,zkSNARKによるモデル推論を用いたモデル評価の検証手法を提案する。
結果として得られたデータセット上のモデル出力のゼロ知識計算証明は、検証可能な評価証明にパッケージ化することができる。
実世界のモデルのサンプルでこれを初めてデモし、重要な課題と設計ソリューションを強調します。
論文 参考訳(メタデータ) (2024-02-05T02:21:11Z) - fairml: A Statistician's Take on Fair Machine Learning Modelling [0.0]
本稿では,これまでの研究(Scutari, Panero, Proissl 2022)および関連モデルを文献で実装したfairmlパッケージについて述べる。
Fairmlは古典的な統計モデルと ペナル化された回帰結果に基づいて設計されています
フェアネスを強制するために使われる制約は、推定をモデル化することであり、望まれるモデルファミリと各アプリケーションに対するフェアネス定義の混合とマッチングを可能にする。
論文 参考訳(メタデータ) (2023-05-03T09:59:53Z) - Uncertainty Quantification for Local Model Explanations Without Model
Access [0.44241702149260353]
本稿では,機械学習モデルに対するポストホックな説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本アルゴリズムは,モデルクエリの有限サンプルから説明を生成する際に必然的に発生する不確実性を定量化するためにブートストラップ方式を用いる。
論文 参考訳(メタデータ) (2023-01-13T21:18:00Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Equivalence of Segmental and Neural Transducer Modeling: A Proof of
Concept [56.46135010588918]
RNN-Transducerモデルとセグメントモデル(直接HMM)の広く使われているクラスが等価であることを証明する。
空白確率はセグメント長確率に変換され,その逆も示された。
論文 参考訳(メタデータ) (2021-04-13T11:20:48Z) - fairmodels: A Flexible Tool For Bias Detection, Visualization, And
Mitigation [3.548416925804316]
この記事では、公平性を検証し、分類モデルのバイアスを取り除くのに役立つRパッケージのフェアモデルを紹介します。
実装された関数と公平度メトリクスは、異なる視点からモデル公平性検証を可能にする。
このパッケージには、モデルの差別を減らそうとするバイアス緩和の一連の方法が含まれている。
論文 参考訳(メタデータ) (2021-04-01T15:06:13Z) - Design of Dynamic Experiments for Black-Box Model Discrimination [72.2414939419588]
選択したいような動的モデル判別の設定を考えてみましょう。 (i) 最高のメカニスティックな時間変化モデルと (ii) 最高のモデルパラメータ推定値です。
勾配情報にアクセス可能な競合する力学モデルに対しては、既存の手法を拡張し、より広い範囲の問題の不確実性を組み込む。
これらのブラックボックスモデルをガウス過程サロゲートモデルに置き換えることで、モデル識別設定を拡張して、競合するブラックボックスモデルをさらに取り入れる。
論文 参考訳(メタデータ) (2021-02-07T11:34:39Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。