論文の概要: Verifying Inverse Model Neural Networks
- arxiv url: http://arxiv.org/abs/2202.02429v1
- Date: Fri, 4 Feb 2022 23:13:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-13 17:39:12.560062
- Title: Verifying Inverse Model Neural Networks
- Title(参考訳): 逆モデルニューラルネットワークの検証
- Authors: Chelsea Sidrane, Sydney Katz, Anthony Corso, Mykel J. Kochenderfer
- Abstract要約: 逆問題は、航空宇宙工学から医用画像まで、様々な物理的領域に存在している。
本稿では,逆モデルニューラルネットワークの正当性を検証する手法を提案する。
- 参考スコア(独自算出の注目度): 39.4062479625023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inverse problems exist in a wide variety of physical domains from aerospace
engineering to medical imaging. The goal is to infer the underlying state from
a set of observations. When the forward model that produced the observations is
nonlinear and stochastic, solving the inverse problem is very challenging.
Neural networks are an appealing solution for solving inverse problems as they
can be trained from noisy data and once trained are computationally efficient
to run. However, inverse model neural networks do not have guarantees of
correctness built-in, which makes them unreliable for use in safety and
accuracy-critical contexts. In this work we introduce a method for verifying
the correctness of inverse model neural networks. Our approach is to
overapproximate a nonlinear, stochastic forward model with piecewise linear
constraints and encode both the overapproximate forward model and the neural
network inverse model as a mixed-integer program. We demonstrate this
verification procedure on a real-world airplane fuel gauge case study. The
ability to verify and consequently trust inverse model neural networks allows
their use in a wide variety of contexts, from aerospace to medicine.
- Abstract(参考訳): 逆問題は、航空宇宙工学から医用イメージングまで、様々な物理領域に存在する。
目標は、一連の観測から基礎となる状態を推測することである。
観測を生んだ前方モデルが非線形で確率的であれば、逆問題の解決は非常に困難である。
ニューラルネットワークは、ノイズの多いデータからトレーニング可能な逆問題に対して魅力的なソリューションであり、一度トレーニングすれば計算効率が向上する。
しかし、逆モデルニューラルネットワークには正確性の保証が組み込まれていないため、安全性と精度クリティカルなコンテキストでの使用には信頼性が低い。
本研究では,逆モデルニューラルネットワークの正当性を検証する手法を提案する。
提案手法は, 線形制約を持つ非線形確率フォワードモデルをオーバー近似し, オーバー近似フォワードモデルとニューラルネットワーク逆モデルの両方を混合整数プログラムとして符号化する。
この検証手順を実世界の航空機用燃料ゲージのケーススタディで実証する。
逆モデルニューラルネットワークを検証し、従って信頼する能力は、航空宇宙から医学まで、幅広い文脈で使用することができる。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - On Modifying a Neural Network's Perception [3.42658286826597]
本研究では,人間の定義した概念に対して,人工ニューラルネットワークが知覚しているものを修正する手法を提案する。
提案手法を異なるモデルで検証し、実行された操作がモデルによって適切に解釈されているかどうかを評価し、それらに対してどのように反応するかを解析する。
論文 参考訳(メタデータ) (2023-03-05T12:09:37Z) - Stable, accurate and efficient deep neural networks for inverse problems
with analysis-sparse models [2.969705152497174]
本稿では,一般解析スパースモデルを用いた逆問題に対する高精度で安定かつ効率的なニューラルネットワークの構築について述べる。
ネットワーク構築のために,凸最適化のための1次高速化手法であるNESTAをアンロールする。
再起動方式は、必要なネットワーク深さの指数的減衰を可能とし、より浅いネットワークとなり、その結果より効率的なネットワークを実現する。
論文 参考訳(メタデータ) (2022-03-02T00:44:25Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Solving inverse problems with deep neural networks driven by sparse
signal decomposition in a physics-based dictionary [0.0]
ディープニューラルネットワーク(DNN)は非常に複雑なモデル、すなわちモデル出力から生成パラメータを学習する能力を持つ。
本稿では,DNNの効率と従来の解析手法の解釈可能性を組み合わせた一般逆問題の解法を提案する。
論文 参考訳(メタデータ) (2021-07-16T09:32:45Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。