論文の概要: Verification of ML Systems via Reparameterization
- arxiv url: http://arxiv.org/abs/2007.06776v1
- Date: Tue, 14 Jul 2020 02:19:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 13:23:24.377741
- Title: Verification of ML Systems via Reparameterization
- Title(参考訳): リパラメータ化によるMLシステムの検証
- Authors: Jean-Baptiste Tristan, Joseph Tassarotti, Koundinya Vajjha, Michael L.
Wick, Anindya Banerjee
- Abstract要約: 確率的プログラムを定理証明器で自動的に表現する方法を示す。
また、ベイズ仮説テストで用いられるヌルモデルは、人口統計学的パリティ(英語版)と呼ばれる公平性基準を満たすことを証明した。
- 参考スコア(独自算出の注目度): 6.482926592121413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning is increasingly used in essential systems, it is
important to reduce or eliminate the incidence of serious bugs. A growing body
of research has developed machine learning algorithms with formal guarantees
about performance, robustness, or fairness. Yet, the analysis of these
algorithms is often complex, and implementing such systems in practice
introduces room for error. Proof assistants can be used to formally verify
machine learning systems by constructing machine checked proofs of correctness
that rule out such bugs. However, reasoning about probabilistic claims inside
of a proof assistant remains challenging. We show how a probabilistic program
can be automatically represented in a theorem prover using the concept of
\emph{reparameterization}, and how some of the tedious proofs of measurability
can be generated automatically from the probabilistic program. To demonstrate
that this approach is broad enough to handle rather different types of machine
learning systems, we verify both a classic result from statistical learning
theory (PAC-learnability of decision stumps) and prove that the null model used
in a Bayesian hypothesis test satisfies a fairness criterion called demographic
parity.
- Abstract(参考訳): 機械学習が本質的なシステムでますます使われているため、深刻なバグの発生を低減または排除することが重要である。
成長する研究機関は、パフォーマンス、堅牢性、公正性に関する正式な保証を備えた機械学習アルゴリズムを開発した。
しかし、これらのアルゴリズムの分析はしばしば複雑であり、実際にそのようなシステムを実装するとエラーの余地が生じる。
証明アシスタントは、そのようなバグを除外する正当性のマシンチェック証明を構築することによって、機械学習システムの正式な検証に使用できる。
しかし、証明アシスタントの内部での確率的主張の推論は依然として困難である。
確率的プログラムが 'emph{reparameterization} という概念を用いて定理証明器で自動的に表現され、また可測性の退屈な証明が確率的プログラムから自動的に生成されることを示す。
このアプローチが、かなり異なるタイプの機械学習システムを扱うのに十分広いことを実証するために、統計的学習理論(PAC-learnability of decision stumps)からの古典的な結果と、ベイズ仮説テストで用いられるヌルモデルが、人口統計パリティと呼ばれる公正な基準を満たすことを証明した。
関連論文リスト
- Neural Model Checking [10.376573742987917]
時間論理をモデル化するための機械学習手法を導入し,ハードウェアの形式的検証に適用する。
我々の新しいアプローチは、ニューラルネットワークを線形時間論理の形式証明証明として用いることによって、機械学習と記号推論を組み合わせる。
提案手法は,SystemVerilogで記述された標準的なハードウェア設計において,最先端の学術的,商業的なモデルチェッカーよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-31T10:17:04Z) - Bisimulation Learning [55.859538562698496]
我々は、大きな、潜在的に無限の状態空間を持つ状態遷移系の有限バイシミュレートを計算する。
提案手法は,実際に行われている他の最先端ツールよりも高速な検証結果が得られる。
論文 参考訳(メタデータ) (2024-05-24T17:11:27Z) - Conformal Predictions for Probabilistically Robust Scalable Machine Learning Classification [1.757077789361314]
コンフォーマルな予測により、信頼性と堅牢な学習アルゴリズムを定義することができる。
基本的には、アルゴリズムが実際に使われるのに十分であるかどうかを評価する方法である。
本稿では,設計当初から信頼性の高い分類学習フレームワークを定義した。
論文 参考訳(メタデータ) (2024-03-15T14:59:24Z) - Probabilistic Safety Regions Via Finite Families of Scalable Classifiers [2.431537995108158]
監視された分類は、データのパターンを認識して、振る舞いのクラスを分離する。
正準解は、機械学習の数値近似の性質に固有の誤分類誤差を含む。
本稿では,確率論的安全性領域の概念を導入し,入力空間のサブセットとして,誤分類されたインスタンスの数を確率論的に制御する手法を提案する。
論文 参考訳(メタデータ) (2023-09-08T22:40:19Z) - Automated Learning of Interpretable Models with Quantified Uncertainty [0.0]
我々は遺伝子プログラミングに基づくシンボリックレグレッション(GPSR)の新しい枠組みを導入する。
GPSRはモデルエビデンスを用いて、進化の選択段階における置換確率を定式化する。
従来のGPSR実装と比較して、解釈可能性の向上、ノイズに対する堅牢性の向上、オーバーフィッティングの低減が示されている。
論文 参考訳(メタデータ) (2022-04-12T19:56:42Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - From Undecidability of Non-Triviality and Finiteness to Undecidability
of Learnability [0.0]
新たに提案したモデルが実際にデータから学べるかどうかを厳格に評価するための汎用的な手順は存在しないことを示す。
PACバイナリ分類、一様および普遍的なオンライン学習、教師と教師の相互作用による正確な学習では、学習性は一般に決定不可能である。
機械学習モデルが成功するかどうかを決定するのに、すべてに適したアルゴリズムは存在しない。
論文 参考訳(メタデータ) (2021-06-02T18:00:04Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z) - A Note on High-Probability versus In-Expectation Guarantees of
Generalization Bounds in Machine Learning [95.48744259567837]
統計的機械学習理論は、しばしば機械学習モデルの一般化を保証するよう試みる。
機械学習モデルのパフォーマンスに関する声明は、サンプリングプロセスを考慮する必要がある。
1つのステートメントを別のステートメントに変換する方法を示します。
論文 参考訳(メタデータ) (2020-10-06T09:41:35Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。