論文の概要: ModelVerification.jl: a Comprehensive Toolbox for Formally Verifying Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2407.01639v1
- Date: Sun, 30 Jun 2024 20:15:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 19:52:16.206463
- Title: ModelVerification.jl: a Comprehensive Toolbox for Formally Verifying Deep Neural Networks
- Title(参考訳): Model Verification.jl: ディープニューラルネットワークを形式的に検証するための総合ツールボックス
- Authors: Tianhao Wei, Luca Marzari, Kai S. Yun, Hanjiang Hu, Peizhi Niu, Xusheng Luo, Changliu Liu,
- Abstract要約: 我々は,異なるタイプのディープニューラルネットワーク(DNN)と安全仕様を検証するための,最初の包括的かつ最先端のツールボックスである textttModelVerification.jl (MV) を提案する。
この汎用ツールボックスは、開発者や機械学習実践者に対して、彼らのDNNモデルの信頼性を検証し、確実にするための堅牢なツールを提供することを目的としている。
- 参考スコア(独自算出の注目度): 9.279864701876367
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNN) are crucial in approximating nonlinear functions across diverse applications, ranging from image classification to control. Verifying specific input-output properties can be a highly challenging task due to the lack of a single, self-contained framework that allows a complete range of verification types. To this end, we present \texttt{ModelVerification.jl (MV)}, the first comprehensive, cutting-edge toolbox that contains a suite of state-of-the-art methods for verifying different types of DNNs and safety specifications. This versatile toolbox is designed to empower developers and machine learning practitioners with robust tools for verifying and ensuring the trustworthiness of their DNN models.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、画像分類から制御まで、さまざまなアプリケーションにわたる非線形関数の近似に不可欠である。
特定のインプット・アウトプット特性の検証は、完全な検証タイプを可能にする単一の自己完結型フレームワークが欠如しているため、非常に難しい作業である。
この目的のために,異なるタイプのDNNと安全仕様を検証するための最先端ツールボックスである‘texttt{ModelVerification.jl(MV)}を提示する。
この汎用ツールボックスは、開発者や機械学習実践者に対して、彼らのDNNモデルの信頼性を検証し、確実にするための堅牢なツールを提供することを目的としている。
関連論文リスト
- IDEA: A Flexible Framework of Certified Unlearning for Graph Neural Networks [68.6374698896505]
グラフニューラルネットワーク(GNN)は、ますます多くのアプリケーションにデプロイされている。
トレーニングされたGNNがデプロイされ、潜在的攻撃者に対して公開されると、プライバシリークが発生する可能性がある。
我々は,GNNのための柔軟で認定されたアンラーニングを実現するために,IDEAというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-28T04:59:59Z) - Formal Verification of Deep Neural Networks for Object Detection [1.947473271879451]
ディープニューラルネットワーク(DNN)は、現実世界のアプリケーションで広く使われているが、エラーや敵攻撃に弱いままである。
この研究は形式的検証を、より複雑なエホブジェクト検出モデルの領域に拡張する。
論文 参考訳(メタデータ) (2024-07-01T13:47:54Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - NCTV: Neural Clamping Toolkit and Visualization for Neural Network
Calibration [66.22668336495175]
ニューラルネットワークのキャリブレーションに対する考慮の欠如は、人間から信頼を得ることはないだろう。
我々はNeural Clamping Toolkitを紹介した。これは開発者が最先端のモデルに依存しないキャリブレーションモデルを採用するのを支援するために設計された最初のオープンソースフレームワークである。
論文 参考訳(メタデータ) (2022-11-29T15:03:05Z) - Testing Feedforward Neural Networks Training Programs [13.249453757295083]
ディープニューラルネットワークの動作の不整合を露呈するテストケースを生成するために、複数のテスト技術が提案されている。
これらのテクニックは、トレーニングプログラムがバグフリーで適切に設定されていることを暗黙的に仮定する。
本稿では,DNNトレーニングプログラムのエンドツーエンドなプロパティベースのデバッグ手法であるTheDeepCheckerを提案する。
論文 参考訳(メタデータ) (2022-04-01T20:49:14Z) - A Simple Framework to Quantify Different Types of Uncertainty in Deep
Neural Networks for Image Classification [0.0]
モデルの予測の不確実性を定量化することは、AIシステムの安全性を高めるために重要である。
これは、自動運転車の制御、医療画像分析、財務推定、法的分野など、エラーのコストが高いアプリケーションにとって極めて重要である。
本稿では,画像分類の課題に対して,Deep Neural Networksにおいて既知の3種類の不確実性を捕捉し,定量化するための完全なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-17T15:36:42Z) - Continuous Safety Verification of Neural Networks [1.7056768055368385]
本稿では,前回のDNN安全検証問題から修正問題設定への移行結果のアプローチについて考察する。
全体的な概念は、認識された画像から視覚的方向を決定するために、DNNコントローラを装備する1/10ドルのスケールで評価される。
論文 参考訳(メタデータ) (2020-10-12T13:28:04Z) - The Microsoft Toolkit of Multi-Task Deep Neural Networks for Natural
Language Understanding [97.85957811603251]
MT-DNNはオープンソースの自然言語理解(NLU)ツールキットであり、研究者や開発者がカスタマイズされたディープラーニングモデルを訓練しやすくする。
PyTorchとTransformersをベースとして開発されたMT-DNNは、幅広いNLUタスクの迅速なカスタマイズを容易にするように設計されている。
MT-DNNのユニークな特徴は、対戦型マルチタスク学習パラダイムを用いた堅牢で移動可能な学習のサポートである。
論文 参考訳(メタデータ) (2020-02-19T03:05:28Z) - Scalable Quantitative Verification For Deep Neural Networks [44.570783946111334]
ディープニューラルネットワーク(DNN)のためのテスト駆動検証フレームワークを提案する。
本手法は,形式的確率特性の健全性が証明されるまで,十分な試験を行う。
われわれの研究は、現実世界のディープニューラルネットワークが捉えた分布の性質を、証明可能な保証で検証する方法を開拓している。
論文 参考訳(メタデータ) (2020-02-17T09:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。