論文の概要: The Fourth International Verification of Neural Networks Competition
(VNN-COMP 2023): Summary and Results
- arxiv url: http://arxiv.org/abs/2312.16760v1
- Date: Thu, 28 Dec 2023 00:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 18:02:15.887536
- Title: The Fourth International Verification of Neural Networks Competition
(VNN-COMP 2023): Summary and Results
- Title(参考訳): 第4回国際ニューラルネットワークコンペティション(VNN-COMP 2023)の概要と結果
- Authors: Christopher Brix, Stanley Bak, Changliu Liu, Taylor T. Johnson
- Abstract要約: 第4回国際ニューラルネットワークコンペティション(VNN-COMP 2023)を要約する。
VNN-COMPは、最先端のニューラルネットワーク検証ツールの公平かつ客観的な比較を容易にするために毎年開催されている。
このレポートは、このコンペティションのこのイテレーションから学んだルール、ベンチマーク、参加ツール、結果、教訓を要約する。
- 参考スコア(独自算出の注目度): 7.3262152011453745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This report summarizes the 4th International Verification of Neural Networks
Competition (VNN-COMP 2023), held as a part of the 6th Workshop on Formal
Methods for ML-Enabled Autonomous Systems (FoMLAS), that was collocated with
the 35th International Conference on Computer-Aided Verification (CAV).
VNN-COMP is held annually to facilitate the fair and objective comparison of
state-of-the-art neural network verification tools, encourage the
standardization of tool interfaces, and bring together the neural network
verification community. To this end, standardized formats for networks (ONNX)
and specification (VNN-LIB) were defined, tools were evaluated on equal-cost
hardware (using an automatic evaluation pipeline based on AWS instances), and
tool parameters were chosen by the participants before the final test sets were
made public. In the 2023 iteration, 7 teams participated on a diverse set of 10
scored and 4 unscored benchmarks. This report summarizes the rules, benchmarks,
participating tools, results, and lessons learned from this iteration of this
competition.
- Abstract(参考訳): 本報告は、第35回コンピュータ支援検証国際会議(cav)と共同で開催された第6回ml対応自律システム(fomlas)の形式的手法に関するワークショップの一環として開催された第4回ニューラルネットワークコンペティション(vnn-comp 2023)を要約する。
VNN-COMPは、最先端のニューラルネットワーク検証ツールの公正かつ客観的な比較を促進し、ツールインターフェースの標準化を促進し、ニューラルネットワーク検証コミュニティを統合するために毎年開催される。
この目的のために、ネットワーク(ONNX)と仕様(VNN-LIB)の標準化フォーマットが定義され、同じコストのハードウェア上でツールが評価され(AWSインスタンスをベースとした自動評価パイプラインを使用して)、最終テストセットが公開される前に、ツールパラメータが参加者によって選択された。
2023年のイテレーションでは、7チームが10のスコアと4のアンスコアのベンチマークの多様なセットに参加した。
このレポートは、このコンペティションのこのイテレーションから学んだルール、ベンチマーク、参加ツール、結果、教訓を要約する。
関連論文リスト
- SynFacePAD 2023: Competition on Face Presentation Attack Detection Based
on Privacy-aware Synthetic Training Data [51.42380508231581]
バイオメトリックス国際会議(IJCB 2023)におけるプライバシ・アウェア・シンセティック・トレーニングデータ(SynFacePAD 2023)に基づく顔提示攻撃検出コンペティションの概要を述べる。
このコンペティションは、個人データに関連するプライバシー、法的、倫理的懸念に動機づけられた、合成ベースのトレーニングデータを考慮して、顔の提示攻撃を検出するソリューションを動機付け、誘致することを目的としている。
提案されたソリューションはイノベーションと新しいアプローチを示し、調査されたベンチマークで考慮されたベースラインを上回りました。
論文 参考訳(メタデータ) (2023-11-09T13:02:04Z) - EFaR 2023: Efficient Face Recognition Competition [51.77649060180531]
バイオメトリックス国際会議(IJCB 2023)における効率的な顔認識コンペティション(EFaR)の概要について述べる。
この競技会は6つの異なるチームから17の応募を受けた。
提案したソリューションは、様々なベンチマークで達成された検証精度の重み付けスコアと、浮動小数点演算数とモデルサイズによって与えられるデプロイ可能性に基づいてランク付けされる。
論文 参考訳(メタデータ) (2023-08-08T09:58:22Z) - Severity classification of ground-glass opacity via 2-D convolutional
neural network and lung CT scans: a 3-day exploration [0.0]
グラウンドグラスの不透明度は、COVID-19や肺炎、肺線維症、結核など、多くの肺疾患の指標である。
本稿では,3日間にわたって実施,テストされた概念実証フレームワークについて,第3の課題である「COVID-19コンペティション」による実験的結果を示す。
課題の要件の一部として、このエクササイズ中に生成されたソースコードはhttps://github.com/lisatwyw/cov19.comに投稿されている。
論文 参考訳(メタデータ) (2023-03-23T22:35:37Z) - First Three Years of the International Verification of Neural Networks
Competition (VNN-COMP) [9.02791567988691]
VNN-COMPでは、参加者が入力出力動作を記述する仕様を満たすニューラルネットワークを解析するソフトウェアツールを提出する。
我々は、重要なプロセス、ルール、成果を要約し、過去3年間に観察されたトレンドを概説し、将来の発展の可能性について展望を提供する。
論文 参考訳(メタデータ) (2023-01-14T04:04:12Z) - The Third International Verification of Neural Networks Competition
(VNN-COMP 2022): Summary and Results [9.02791567988691]
第3回国際ニューラルネットワークコンペティション(VNN-COMP 2022)を要約する。
VNN-COMPは、最先端のニューラルネットワーク検証ツールの公平かつ客観的な比較を容易にするために毎年開催されている。
このレポートは、このコンペティションのこのイテレーションから学んだルール、ベンチマーク、参加ツール、結果、教訓を要約する。
論文 参考訳(メタデータ) (2022-12-20T15:58:01Z) - An ensemble of VisNet, Transformer-M, and pretraining models for
molecular property prediction in OGB Large-Scale Challenge @ NeurIPS 2022 [48.109627319222334]
ViSNet Team はテストチェレンジセットで 0.0723 eV の MAE を達成し、昨年のベストメソッドと比較して誤差を 39.75% 削減した。
論文 参考訳(メタデータ) (2022-11-23T09:12:17Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - The Second International Verification of Neural Networks Competition
(VNN-COMP 2021): Summary and Results [1.4824891788575418]
本報告では,第2回国際ニューラルネットワークコンペティション(VNN-COMP 2021)を要約する。
競争の目標は、ニューラルネットワークの検証における最先端の手法の客観的比較を提供することである。
このレポートでは、このコンペティションから学んだルール、ベンチマーク、参加ツール、結果、教訓を要約する。
論文 参考訳(メタデータ) (2021-08-31T01:29:56Z) - SVSNet: An End-to-end Speaker Voice Similarity Assessment Model [61.3813595968834]
本研究では、自然言語と合成音声の話者音声類似性を評価するために、最初のエンドツーエンドニューラルネットワークモデルであるSVSNetを提案する。
Voice Conversion Challenge 2018と2020の実験結果は、SVSNetがよく知られたベースラインシステムより優れていることを示している。
論文 参考訳(メタデータ) (2021-07-20T10:19:46Z) - Machine Learning for Performance Prediction of Channel Bonding in
Next-Generation IEEE 802.11 WLANs [1.0486135378491268]
我々はPompeu Fabra大学(UPF)が主催する問題ステートメント13(PS-013)の結果を提示する。
第一の目標は、チャネルボンディング(CB)技術を適用した次世代無線地域ネットワーク(WLAN)の性能予測であった。
論文 参考訳(メタデータ) (2021-05-29T05:33:07Z) - Emotion Recognition for In-the-wild Videos [92.01434273996097]
本稿では, IEEE International Conference on Automatic Face and Gesture Recognition (FG) 2020と共同で開催されているAffective Behavior Analysis in-the-wild competitionの7つの基本的表現分類トラックについて紹介する。
提案手法は,Deep Residual Network (ResNet) とBidirectional Long Short-Term Memory Network (BLSTM) を組み合わせることで,64.3%の精度と43.4%のファイナルメトリックスを実現する。
論文 参考訳(メタデータ) (2020-02-13T11:29:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。