論文の概要: The Second International Verification of Neural Networks Competition
(VNN-COMP 2021): Summary and Results
- arxiv url: http://arxiv.org/abs/2109.00498v1
- Date: Tue, 31 Aug 2021 01:29:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 14:15:39.443994
- Title: The Second International Verification of Neural Networks Competition
(VNN-COMP 2021): Summary and Results
- Title(参考訳): the second international verification of neural networks competition (vnn-comp 2021):概要と結果
- Authors: Stanley Bak, Changliu Liu, Taylor Johnson
- Abstract要約: 本報告では,第2回国際ニューラルネットワークコンペティション(VNN-COMP 2021)を要約する。
競争の目標は、ニューラルネットワークの検証における最先端の手法の客観的比較を提供することである。
このレポートでは、このコンペティションから学んだルール、ベンチマーク、参加ツール、結果、教訓を要約する。
- 参考スコア(独自算出の注目度): 1.4824891788575418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report summarizes the second International Verification of Neural
Networks Competition (VNN-COMP 2021), held as a part of the 4th Workshop on
Formal Methods for ML-Enabled Autonomous Systems that was collocated with the
33rd International Conference on Computer-Aided Verification (CAV). Twelve
teams participated in this competition. The goal of the competition is to
provide an objective comparison of the state-of-the-art methods in neural
network verification, in terms of scalability and speed. Along this line, we
used standard formats (ONNX for neural networks and VNNLIB for specifications),
standard hardware (all tools are run by the organizers on AWS), and tool
parameters provided by the tool authors. This report summarizes the rules,
benchmarks, participating tools, results, and lessons learned from this
competition.
- Abstract(参考訳): 本報告では,第4回ML対応自律システムのための形式的手法に関するワークショップの一環として開催された第2回ニューラルネットワークコンペティション(VNN-COMP 2021)を,第33回コンピュータ支援検証国際会議(CAV)にまとめる。
この大会には12チームが参加した。
競争の目標は、スケーラビリティとスピードの観点から、ニューラルネットワーク検証における最先端の手法を客観的に比較することである。
この線に沿って、標準フォーマット(ニューラルネットワークはONNX、仕様はVNNLIB)、標準ハードウェア(すべてのツールはAWSのオーガナイザによって実行される)、ツール作者が提供するツールパラメータを使用しました。
このレポートでは、このコンペティションから学んだルール、ベンチマーク、参加ツール、結果、教訓を要約する。
関連論文リスト
- A Conceptual Framework For Trie-Augmented Neural Networks (TANNS) [0.0]
Trie-Augmented Neural Networks (TANN)は、ニューラルネットワークとトリ構造を組み合わせることで、意思決定の透明性と機械学習の効率性を高める階層的な設計を形成する。
本稿では、リカレントニューラルネットワーク(RNN)とフィードフォワードニューラルネットワーク(FNN)を用いて、テキストおよび文書分類におけるTANNの使用について検討する。
論文 参考訳(メタデータ) (2024-06-11T17:08:16Z) - The Fourth International Verification of Neural Networks Competition
(VNN-COMP 2023): Summary and Results [7.3262152011453745]
第4回国際ニューラルネットワークコンペティション(VNN-COMP 2023)を要約する。
VNN-COMPは、最先端のニューラルネットワーク検証ツールの公平かつ客観的な比較を容易にするために毎年開催されている。
このレポートは、このコンペティションのこのイテレーションから学んだルール、ベンチマーク、参加ツール、結果、教訓を要約する。
論文 参考訳(メタデータ) (2023-12-28T00:46:35Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - First Three Years of the International Verification of Neural Networks
Competition (VNN-COMP) [9.02791567988691]
VNN-COMPでは、参加者が入力出力動作を記述する仕様を満たすニューラルネットワークを解析するソフトウェアツールを提出する。
我々は、重要なプロセス、ルール、成果を要約し、過去3年間に観察されたトレンドを概説し、将来の発展の可能性について展望を提供する。
論文 参考訳(メタデータ) (2023-01-14T04:04:12Z) - The Third International Verification of Neural Networks Competition
(VNN-COMP 2022): Summary and Results [9.02791567988691]
第3回国際ニューラルネットワークコンペティション(VNN-COMP 2022)を要約する。
VNN-COMPは、最先端のニューラルネットワーク検証ツールの公平かつ客観的な比較を容易にするために毎年開催されている。
このレポートは、このコンペティションのこのイテレーションから学んだルール、ベンチマーク、参加ツール、結果、教訓を要約する。
論文 参考訳(メタデータ) (2022-12-20T15:58:01Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Competing Mutual Information Constraints with Stochastic
Competition-based Activations for Learning Diversified Representations [5.981521556433909]
本研究は,多角化表現の学習における長年の課題に対処することを目的としている。
情報理論の議論と競争に基づくアクティベーションを組み合わせる。
実験的に示すように、結果として得られるネットワークは、重要な離散表現学習能力をもたらす。
論文 参考訳(メタデータ) (2022-01-10T20:12:13Z) - Analysing Affective Behavior in the second ABAW2 Competition [70.86998050535944]
ABAW2 2021コンペティションは、IEEE FG 2020-コンペティションと共同で開催された最初の非常に成功したABAWコンペティションに続く第2回である。
論文 参考訳(メタデータ) (2021-06-14T11:30:19Z) - A Two-Stage Approach to Device-Robust Acoustic Scene Classification [63.98724740606457]
デバイスロバスト性を改善するために,完全畳み込みニューラルネットワーク(CNN)に基づく2段階システムを提案する。
以上の結果から,提案したASCシステムにより,開発環境における最先端の精度が得られた。
クラスアクティベーションマッピングを用いたニューラルサリエンシ解析により、モデルによって学習されたパターンに関する新たな洞察が得られる。
論文 参考訳(メタデータ) (2020-11-03T03:27:18Z) - Interactive Video Object Segmentation Using Global and Local Transfer
Modules [51.93009196085043]
我々はアノテーションネットワーク(A-Net)と転送ネットワーク(T-Net)からなるディープニューラルネットワークを開発する。
A-Netは、フレーム上のユーザ記述を前提として、エンコーダ-デコーダアーキテクチャに基づいたセグメンテーション結果を生成する。
ユーザスクリブルをエミュレートし,補助的な損失を生かして,ネットワーク全体を2段階に分けてトレーニングする。
論文 参考訳(メタデータ) (2020-07-16T06:49:07Z) - When Does Self-Supervision Help Graph Convolutional Networks? [118.37805042816784]
自己スーパービジョンは、画像のより転送可能で一般化可能で堅牢な表現学習のために、畳み込みニューラルネットワーク(CNN)を訓練するために採用されている。
本研究では,グラフ畳み込みネットワーク(GCN)に自己超越を取り入れた最初の体系的探索について報告する。
その結果、適切に設計されたタスク形式と構成機構により、より一般化性と堅牢性を得る上で、自己スーパービジョンはGCNに恩恵をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-06-16T13:29:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。