論文の概要: A Parallel Implementation of Computing Mean Average Precision
- arxiv url: http://arxiv.org/abs/2206.09504v1
- Date: Sun, 19 Jun 2022 23:23:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 14:08:19.702270
- Title: A Parallel Implementation of Computing Mean Average Precision
- Title(参考訳): 平均平均精度計算の並列化
- Authors: Beinan Wang
- Abstract要約: 平均精度(mAP)は、物体検出器の品質を評価するために広く用いられている。
現在の実装では、一度に1つのクラスに対して真正(TP)と偽正(FP)しかカウントできない。
検出されたバウンディングボックスのミニバッチを処理できる並列化された代替手段を提案する。
- 参考スコア(独自算出の注目度): 0.130536490219656
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Mean Average Precision (mAP) has been widely used for evaluating the quality
of object detectors, but an efficient implementation is still absent. Current
implementations can only count true positives (TP's) and false positives (FP's)
for one class at a time by looping through every detection of that class
sequentially. Not only are these approaches inefficient, but they are also
inconvenient for reporting validation mAP during training. We propose a
parallelized alternative that can process mini-batches of detected bounding
boxes (DTBB's) and ground truth bounding boxes (GTBB's) as inference goes such
that mAP can be instantly calculated after inference is finished. Loops and
control statements in sequential implementations are replaced with extensive
uses of broadcasting, masking, and indexing. All operators involved are
supported by popular machine learning frameworks such as PyTorch and
TensorFlow. As a result, our implementation is much faster and can easily fit
into typical training routines. A PyTorch version of our implementation is
available at https://github.com/bwangca/fast-map.
- Abstract(参考訳): 平均精度(mAP)は物体検出器の品質評価に広く用いられているが、効率的な実装はいまだに存在しない。
現在の実装では、そのクラスのすべての検出を順次ループすることで、1つのクラスに対して真正(TP)と偽正(FP)しかカウントできない。
これらのアプローチは非効率であるだけでなく、トレーニング中の検証mAPを報告するのに不都合でもある。
本稿では,検出されたバウンディングボックス(DTBB)とグラウンド真理バウンディングボックス(GTBB)のミニバッチを,推論が完了するとmAPが即座に計算されるように並列化された代替手段を提案する。
シーケンシャル実装におけるループと制御ステートメントは、ブロードキャスト、マスキング、インデックス化の広範な利用に置き換えられる。
関連するすべてのオペレータは、PyTorchやTensorFlowといった一般的な機械学習フレームワークによってサポートされている。
その結果、我々の実装はより高速で、典型的なトレーニングルーチンに容易に適合できる。
実装のpytorchバージョンはhttps://github.com/bwangca/fast-mapで利用可能です。
関連論文リスト
- BayOTIDE: Bayesian Online Multivariate Time series Imputation with functional decomposition [31.096125530322933]
交通やエネルギーといった現実のシナリオでは、値やノイズが欠けている巨大な時系列データが広く観測され、不規則にサンプリングされる。
多くの計算法が提案されているが、そのほとんどは局所的な地平線で動作する。
ほとんど全ての手法は、観測は通常のタイムスタンプでサンプリングされ、複雑な不規則なサンプル時系列を扱うことができないと仮定する。
論文 参考訳(メタデータ) (2023-08-28T21:17:12Z) - (Almost) Provable Error Bounds Under Distribution Shift via Disagreement
Discrepancy [8.010528849585937]
我々は、ラベルのないテストデータを用いて、分散シフト中のディープニューラルネットワークのエラーに対して(ほぼ)保証された上限を導出する。
特に、我々の境界は単純で直感的な条件を必要とし、これは以前の経験的な研究によって十分に正当化される。
この損失は、マルチクラス不一致の最大化を必要とする将来のメソッドのドロップイン代替になることを期待しています。
論文 参考訳(メタデータ) (2023-06-01T03:22:15Z) - AdaNPC: Exploring Non-Parametric Classifier for Test-Time Adaptation [64.9230895853942]
ドメインの一般化は、ターゲットのドメイン情報を活用することなく、任意に困難にすることができる。
この問題に対処するためにテスト時適応(TTA)手法が提案されている。
本研究では,テスト時間適応(AdaNPC)を行うためにNon-Parametricを採用する。
論文 参考訳(メタデータ) (2023-04-25T04:23:13Z) - Unified Functional Hashing in Automatic Machine Learning [58.77232199682271]
高速に統一された関数型ハッシュを用いることで,大きな効率向上が得られることを示す。
私たちのハッシュは"機能的"であり、表現やコードが異なる場合でも同等の候補を識別します。
ニューラルアーキテクチャ検索やアルゴリズム発見など、複数のAutoMLドメインで劇的な改善がなされている。
論文 参考訳(メタデータ) (2023-02-10T18:50:37Z) - Intersection of Parallels as an Early Stopping Criterion [64.8387564654474]
そこで本研究では,検証セットを必要とせずに,トレーニングイテレーションの早期停止点を見つける手法を提案する。
幅広い学習率において,コサイン距離基準 (CDC) と呼ばれる手法は,比較したすべての手法よりも平均的な一般化に寄与する。
論文 参考訳(メタデータ) (2022-08-19T19:42:41Z) - General Cutting Planes for Bound-Propagation-Based Neural Network
Verification [144.7290035694459]
任意の切削平面制約を加えることができるような境界伝搬手順を一般化する。
MIPソルバは、境界プロパゲーションベースの検証器を強化するために高品質な切削面を生成することができる。
本手法は,oval20ベンチマークを完全解き,oval21ベンチマークの2倍のインスタンスを検証できる最初の検証器である。
論文 参考訳(メタデータ) (2022-08-11T10:31:28Z) - Formalizing Preferences Over Runtime Distributions [25.899669128438322]
アルゴリズムよりも好みを記述したスコアリング関数を特徴付けるために,ユーティリティ理論のアプローチを用いる。
本稿では,不特定容量分布のモデル化における最大エントロピー手法の活用法を示す。
論文 参考訳(メタデータ) (2022-05-25T19:43:48Z) - Efficient algorithms for implementing incremental proximal-point methods [0.3263412255491401]
機械学習において、モデルトレーニングアルゴリズムは、各計算ステップにおけるトレーニングセットのごく一部を観察する。
いくつかの研究ストリームは、よく知られた近位作用素による勾配よりもコスト関数に関するより多くの情報を活用する試みである。
近似演算子のアルゴリズム効率とソフトウェアモジュール性の両方を達成するために凸双対性理論を利用する新しいアルゴリズムフレームワークを考案する。
論文 参考訳(メタデータ) (2022-05-03T12:43:26Z) - Large-scale Optimization of Partial AUC in a Range of False Positive
Rates [51.12047280149546]
ROC曲線 (AUC) の下の領域は、機械学習において最も広く使われている分類モデルのパフォーマンス指標の1つである。
近年の封筒平滑化技術に基づく効率的な近似勾配降下法を開発した。
提案アルゴリズムは,効率のよい解法を欠くランク付けされた範囲損失の和を最小化するためにも利用できる。
論文 参考訳(メタデータ) (2022-03-03T03:46:18Z) - Convolutional Sparse Coding Fast Approximation with Application to
Seismic Reflectivity Estimation [9.005280130480308]
2~5回の反復で畳み込みスパース符号の良好な近似を生成する古典的反復しきい値アルゴリズムの高速化版を提案する。
提案手法の性能は, 合成シナリオと実データシナリオの両方において, 地震インバージョン問題によって実証される。
論文 参考訳(メタデータ) (2021-06-29T12:19:07Z) - Beta-CROWN: Efficient Bound Propagation with Per-neuron Split
Constraints for Complete and Incomplete Neural Network Verification [151.62491805851107]
私たちは、ニューロン毎の分割を完全にエンコードできるバウンド伝搬ベースの検証器である$beta$-crownを開発した。
Beta$-CROWNはLPベースのBaB法よりも3桁近い速さで堅牢性検証が可能です。
BaBを早期に終了することにより、不完全な検証にも使用できます。
論文 参考訳(メタデータ) (2021-03-11T11:56:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。