論文の概要: Verification of ML Systems via Reparameterization
- arxiv url: http://arxiv.org/abs/2007.06776v1
- Date: Tue, 14 Jul 2020 02:19:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 13:23:24.377741
- Title: Verification of ML Systems via Reparameterization
- Title(参考訳): リパラメータ化によるMLシステムの検証
- Authors: Jean-Baptiste Tristan, Joseph Tassarotti, Koundinya Vajjha, Michael L.
Wick, Anindya Banerjee
- Abstract要約: 確率的プログラムを定理証明器で自動的に表現する方法を示す。
また、ベイズ仮説テストで用いられるヌルモデルは、人口統計学的パリティ(英語版)と呼ばれる公平性基準を満たすことを証明した。
- 参考スコア(独自算出の注目度): 6.482926592121413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning is increasingly used in essential systems, it is
important to reduce or eliminate the incidence of serious bugs. A growing body
of research has developed machine learning algorithms with formal guarantees
about performance, robustness, or fairness. Yet, the analysis of these
algorithms is often complex, and implementing such systems in practice
introduces room for error. Proof assistants can be used to formally verify
machine learning systems by constructing machine checked proofs of correctness
that rule out such bugs. However, reasoning about probabilistic claims inside
of a proof assistant remains challenging. We show how a probabilistic program
can be automatically represented in a theorem prover using the concept of
\emph{reparameterization}, and how some of the tedious proofs of measurability
can be generated automatically from the probabilistic program. To demonstrate
that this approach is broad enough to handle rather different types of machine
learning systems, we verify both a classic result from statistical learning
theory (PAC-learnability of decision stumps) and prove that the null model used
in a Bayesian hypothesis test satisfies a fairness criterion called demographic
parity.
- Abstract(参考訳): 機械学習が本質的なシステムでますます使われているため、深刻なバグの発生を低減または排除することが重要である。
成長する研究機関は、パフォーマンス、堅牢性、公正性に関する正式な保証を備えた機械学習アルゴリズムを開発した。
しかし、これらのアルゴリズムの分析はしばしば複雑であり、実際にそのようなシステムを実装するとエラーの余地が生じる。
証明アシスタントは、そのようなバグを除外する正当性のマシンチェック証明を構築することによって、機械学習システムの正式な検証に使用できる。
しかし、証明アシスタントの内部での確率的主張の推論は依然として困難である。
確率的プログラムが 'emph{reparameterization} という概念を用いて定理証明器で自動的に表現され、また可測性の退屈な証明が確率的プログラムから自動的に生成されることを示す。
このアプローチが、かなり異なるタイプの機械学習システムを扱うのに十分広いことを実証するために、統計的学習理論(PAC-learnability of decision stumps)からの古典的な結果と、ベイズ仮説テストで用いられるヌルモデルが、人口統計パリティと呼ばれる公正な基準を満たすことを証明した。
関連論文リスト
- Probabilistic Safety Regions Via Finite Families of Scalable Classifiers [2.431537995108158]
監視された分類は、データのパターンを認識して、振る舞いのクラスを分離する。
正準解は、機械学習の数値近似の性質に固有の誤分類誤差を含む。
本稿では,確率論的安全性領域の概念を導入し,入力空間のサブセットとして,誤分類されたインスタンスの数を確率論的に制御する手法を提案する。
論文 参考訳(メタデータ) (2023-09-08T22:40:19Z) - Probabilistic relations for modelling epistemic and aleatoric
uncertainty: semantics and automated reasoning with theorem proving [0.7219077740523682]
確率的プログラミングは、一般的なコンピュータプログラミング、統計的推論、形式的意味論を組み合わせたものである。
私たちの仕事は、Hehner氏の予測確率的プログラミングに基づいていますが、彼の仕事が広く採用されるにはいくつかの障害があります。
ロボットのローカライゼーションの問題,機械学習の分類,確率ループの終了など,6つの事例で研究成果を実演する。
論文 参考訳(メタデータ) (2023-03-16T23:36:57Z) - Automated Learning of Interpretable Models with Quantified Uncertainty [0.0]
我々は遺伝子プログラミングに基づくシンボリックレグレッション(GPSR)の新しい枠組みを導入する。
GPSRはモデルエビデンスを用いて、進化の選択段階における置換確率を定式化する。
従来のGPSR実装と比較して、解釈可能性の向上、ノイズに対する堅牢性の向上、オーバーフィッティングの低減が示されている。
論文 参考訳(メタデータ) (2022-04-12T19:56:42Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Physics-integrated hybrid framework for model form error identification
in nonlinear dynamical systems [0.0]
実生活の非線形系では、正確な非線形性の形式はよく知られておらず、既知の支配方程式は特定の仮定や近似に基づいていることが多い。
モデル形状の誤差を識別するだけでなく、既知のが近似的な支配方程式の予測能力を向上させるためにも活用する、新しいグレーボックスモデリング手法を提案する。
論文 参考訳(メタデータ) (2021-09-01T16:29:21Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - High-dimensional separability for one- and few-shot learning [58.8599521537]
この作業は、実用的な質問、人工知能(AI)エラーの修正によって進められている。
特殊な外部デバイスである修正器が開発されている。従来のAIシステムを変更することなく、迅速かつ非イテレーティブなシステム修正を提供する必要がある。
AIシステムの新しいマルチコレクタが提示され、深層畳み込みニューラルネットワークによってエラーを予測し、新しいクラスのオブジェクトを学習する例が紹介される。
論文 参考訳(メタデータ) (2021-06-28T14:58:14Z) - From Undecidability of Non-Triviality and Finiteness to Undecidability
of Learnability [0.0]
新たに提案したモデルが実際にデータから学べるかどうかを厳格に評価するための汎用的な手順は存在しないことを示す。
PACバイナリ分類、一様および普遍的なオンライン学習、教師と教師の相互作用による正確な学習では、学習性は一般に決定不可能である。
機械学習モデルが成功するかどうかを決定するのに、すべてに適したアルゴリズムは存在しない。
論文 参考訳(メタデータ) (2021-06-02T18:00:04Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z) - A Note on High-Probability versus In-Expectation Guarantees of
Generalization Bounds in Machine Learning [95.48744259567837]
統計的機械学習理論は、しばしば機械学習モデルの一般化を保証するよう試みる。
機械学習モデルのパフォーマンスに関する声明は、サンプリングプロセスを考慮する必要がある。
1つのステートメントを別のステートメントに変換する方法を示します。
論文 参考訳(メタデータ) (2020-10-06T09:41:35Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。