論文の概要: Bridging Neural ODE and ResNet: A Formal Error Bound for Safety Verification
- arxiv url: http://arxiv.org/abs/2506.03227v1
- Date: Tue, 03 Jun 2025 11:56:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:13.961342
- Title: Bridging Neural ODE and ResNet: A Formal Error Bound for Safety Verification
- Title(参考訳): ニューラルネットワークとResNetのブリッジ: 安全性検証のための形式的エラー境界
- Authors: Abdelrahman Sayed Sayed, Pierre-Jean Meyer, Mohamed Ghazel,
- Abstract要約: ニューラル常微分方程式(Neural ordinary differential equation,neural ODE)は、単一の残差ブロックを持つ残差ネットワーク(ResNet)の連続的な一般化として一般的に記述される機械学習モデルである。
本研究では,2つのモデル間の近似誤差を限定することにより,これらのモデル間のより公式な関係を確立する。
得られたエラーバウンドによって、検証ツールを2回実行することなく、モデルの1つを検証プロキシとして使用することが可能になります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A neural ordinary differential equation (neural ODE) is a machine learning model that is commonly described as a continuous depth generalization of a residual network (ResNet) with a single residual block, or conversely, the ResNet can be seen as the Euler discretization of the neural ODE. These two models are therefore strongly related in a way that the behaviors of either model are considered to be an approximation of the behaviors of the other. In this work, we establish a more formal relationship between these two models by bounding the approximation error between two such related models. The obtained error bound then allows us to use one of the models as a verification proxy for the other, without running the verification tools twice: if the reachable output set expanded by the error bound satisfies a safety property on one of the models, this safety property is then guaranteed to be also satisfied on the other model. This feature is fully reversible, and the initial safety verification can be run indifferently on either of the two models. This novel approach is illustrated on a numerical example of a fixed-point attractor system modeled as a neural ODE.
- Abstract(参考訳): ニューラル常微分方程式(Neural ordinary differential equation,neural ODE)は、単一の残留ブロックを持つ残留ネットワーク(ResNet)の連続深さ一般化(continuous depth generalization)として一般的に記述される機械学習モデルであり、逆に、ResNetはニューラルODEのオイラー離散化(Euler discretization)として見ることができる。
したがって、これらの2つのモデルは、どちらのモデルの振舞いも他方の振舞いの近似と見なす方法で強く関係している。
本研究では,2つのモデル間の近似誤差を限定することにより,これらのモデル間のより公式な関係を確立する。
エラー境界によって拡張された到達可能な出力セットが、モデルのいずれかの安全特性を満たすならば、この安全特性は、他のモデルにも満足することが保証される。
この機能は完全に可逆的であり、初期安全性検証は2つのモデルのいずれかで無関心に実行できる。
この新しいアプローチは、ニューラルネットワークとしてモデル化された固定点アトラクタシステムの数値的な例に示される。
関連論文リスト
- Physics-informed neural networks (PINNs) for numerical model error approximation and superresolution [3.4393226199074114]
数値モデル誤差の同時近似と超解像のための物理インフォームドニューラルネットワーク(PINN)を提案する。
PINNは、予測と基底真理の差が小さいxとyの変位場のモデル誤差を効果的に予測する。
この結果から,物理インフォームド・ロス関数の統合により,ニューラルネットワーク(NN)が純粋にデータ駆動型アプローチを超越してモデル誤差を近似できることが示唆された。
論文 参考訳(メタデータ) (2024-11-14T17:03:09Z) - Solving Inverse Problems with Model Mismatch using Untrained Neural Networks within Model-based Architectures [14.551812310439004]
モデルベースアーキテクチャでは,各インスタンスの計測領域におけるデータの一貫性を一致させるために,トレーニングされていないフォワードモデル残差ブロックを導入する。
提案手法は,パラメータ感受性が低く,追加データを必要としない統一解を提供し,前方モデルの同時適用と1パスの再構成を可能にする。
論文 参考訳(メタデータ) (2024-03-07T19:02:13Z) - Neural Abstractions [72.42530499990028]
本稿では,ニューラルネットワークを用いた非線形力学モデルの安全性検証手法を提案する。
提案手法は,既存のベンチマーク非線形モデルにおいて,成熟度の高いFlow*と同等に動作することを示す。
論文 参考訳(メタデータ) (2023-01-27T12:38:09Z) - Second-order regression models exhibit progressive sharpening to the
edge of stability [30.92413051155244]
2次元の二次目標に対して、2階回帰モデルでは、安定性の端とわずかに異なる値に対して進行的なシャープ化を示すことを示す。
より高次元では、モデルはニューラルネットワークの特定の構造がなくても、概して同様の振る舞いを示す。
論文 参考訳(メタデータ) (2022-10-10T17:21:20Z) - On the Forward Invariance of Neural ODEs [92.07281135902922]
本稿では,ニューラル常微分方程式(ODE)が出力仕様を満たすことを保証するための新しい手法を提案する。
提案手法では,出力仕様を学習システムのパラメータや入力の制約に変換するために,制御障壁関数のクラスを用いる。
論文 参考訳(メタデータ) (2022-10-10T15:18:28Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - The Generalized Lasso with Nonlinear Observations and Generative Priors [63.541900026673055]
我々は、幅広い測定モデルで満たされるガウス下測度を仮定する。
この結果から, 局所埋込特性を仮定して, 均一回復保証まで拡張できることが示唆された。
論文 参考訳(メタデータ) (2020-06-22T16:43:35Z) - Interpolation between Residual and Non-Residual Networks [24.690238357686134]
ダンピング項を追加することで,新しいODEモデルを提案する。
提案モデルでは係数を調整してResNetとCNNの両方を復元可能であることを示す。
複数の画像分類ベンチマーク実験により,提案手法はResNetとResNeXtの精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-06-10T09:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。