論文の概要: Applying the Decisiveness and Robustness Metrics to Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2006.00058v1
- Date: Fri, 29 May 2020 20:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 23:06:25.289497
- Title: Applying the Decisiveness and Robustness Metrics to Convolutional Neural
Networks
- Title(参考訳): 畳み込みニューラルネットワークへの決定性とロバスト性メトリクスの適用
- Authors: Christopher A. George, Eduardo A. Barrera, Kenric P. Nelson
- Abstract要約: 本稿では,最近提案した3つの分類器の品質指標について概説する。
大規模なデータセットに作用するディープ畳み込みニューラルネットワークを用いてメトリクスを計算するいくつかの例を示す。
- 参考スコア(独自算出の注目度): 3.222802562733787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We review three recently-proposed classifier quality metrics and consider
their suitability for large-scale classification challenges such as applying
convolutional neural networks to the 1000-class ImageNet dataset. These
metrics, referred to as the "geometric accuracy," "decisiveness," and
"robustness," are based on the generalized mean ($\rho$ equals 0, 1, and -2/3,
respectively) of the classifier's self-reported and measured probabilities of
correct classification. We also propose some minor clarifications to
standardize the metric definitions. With these updates, we show some examples
of calculating the metrics using deep convolutional neural networks (AlexNet
and DenseNet) acting on large datasets (the German Traffic Sign Recognition
Benchmark and ImageNet).
- Abstract(参考訳): 我々は最近提案された3つの分類器の品質指標をレビューし、1000クラスのImageNetデータセットに畳み込みニューラルネットワークを適用するなど、大規模な分類課題に適合性を検討する。
これらの測度は「幾何学的精度」、「決定性」、「難解性」と呼ばれ、分類器の自己申告および測定された正しい分類の確率の一般化平均(それぞれ0, 1, -2/3)に基づいている。
また、計量の定義を標準化するためのいくつかの小さな明確化も提案する。
これらの更新により、大規模データセット(ドイツのトラヒックサイン認識ベンチマークとimagenet)に作用する深層畳み込みニューラルネットワーク(alexnet と densenet)を用いてメトリクスを計算する例を示す。
関連論文リスト
- Revisiting Evaluation Metrics for Semantic Segmentation: Optimization
and Evaluation of Fine-grained Intersection over Union [113.20223082664681]
そこで本研究では,mIoUsの微細化と,それに対応する最悪の指標を提案する。
これらのきめ細かいメトリクスは、大きなオブジェクトに対するバイアスの低減、よりリッチな統計情報、モデルとデータセット監査に関する貴重な洞察を提供する。
ベンチマークでは,1つの測定値に基づかないことの必要性を強調し,微細なmIoUsが大きな物体への偏りを減少させることを確認した。
論文 参考訳(メタデータ) (2023-10-30T03:45:15Z) - Data-Side Efficiencies for Lightweight Convolutional Neural Networks [4.5853328688992905]
4つのデータ属性 – クラス数,オブジェクト色,画像解像度,オブジェクトスケール – が,ニューラルネットワークモデルのサイズと効率に与える影響を示す。
本稿では,ロボット経路計画アプリケーションのための軽量モデルを選択するために,メトリクスと手法を適用した例を示す。
論文 参考訳(メタデータ) (2023-08-24T19:50:25Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Wide and Deep Neural Networks Achieve Optimality for Classification [23.738242876364865]
我々は、最適性を達成するニューラルネットワーク分類器の明示的な集合を同定し、構築する。
特に、最適性を実現するネットワーク構築に使用できる明示的なアクティベーション関数を提供する。
その結果,過度な深度が有害な回帰タスクとは対照的に,分類タスクにディープネットワークを使用することの利点が浮き彫りになった。
論文 参考訳(メタデータ) (2022-04-29T14:27:42Z) - Compare learning: bi-attention network for few-shot learning [6.559037166322981]
距離学習と呼ばれる数ショットの学習手法の1つは、画像のペアが同じカテゴリに属しているかどうかを判断するために、まず遠距離計量を学習することで、この課題に対処する。
本稿では, インスタンスの埋め込みの類似性を正確に, グローバルかつ効率的に測定できる, Bi-attention Network という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T07:39:10Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Meta-Generating Deep Attentive Metric for Few-shot Classification [53.07108067253006]
本稿では,新しい数ショット学習タスクのための特定のメトリックを生成するための,新しい深度メタジェネレーション手法を提案する。
本研究では,各タスクの識別基準を生成するのに十分なフレキシブルな3層深い注意ネットワークを用いて,メトリクスを構造化する。
特に挑戦的なケースでは、最先端の競合他社よりも驚くほどパフォーマンスが向上しています。
論文 参考訳(メタデータ) (2020-12-03T02:07:43Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - Towards GAN Benchmarks Which Require Generalization [48.075521136623564]
関数を推定するにはモデルからの大きなサンプルが必要であると我々は主張する。
我々は、分布を区別するために訓練されたニューラルネットワークの用語で定義されるニューラルネットワーク分散(NND)に目を向ける。
結果として得られたベンチマークは、トレーニングセットの記憶によって"ウォン"することはできないが、それでも知覚的に相関があり、サンプルからのみ計算可能である。
論文 参考訳(メタデータ) (2020-01-10T20:18:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。