論文の概要: Efficient Graph-Friendly COCO Metric Computation for Train-Time Model
Evaluation
- arxiv url: http://arxiv.org/abs/2207.12120v1
- Date: Thu, 21 Jul 2022 22:39:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:50:04.246331
- Title: Efficient Graph-Friendly COCO Metric Computation for Train-Time Model
Evaluation
- Title(参考訳): 列車時間モデル評価のためのグラフフレンドリーCOCOメトリック計算の効率化
- Authors: Luke Wood, Francois Chollet
- Abstract要約: 我々はCOCO平均精度を計算し、リコールするグラフフレンドリーなアルゴリズムを提案する。
我々の貢献には、平均精度の正確な近似アルゴリズム、COCO平均精度とCOCOリコールのオープンソース実装、そして我々の実装の精度を検証するための広範な数値ベンチマークが含まれる。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evaluating the COCO mean average precision (MaP) and COCO recall metrics as
part of the static computation graph of modern deep learning frameworks poses a
unique set of challenges. These challenges include the need for maintaining a
dynamic-sized state to compute mean average precision, reliance on global
dataset-level statistics to compute the metrics, and managing differing numbers
of bounding boxes between images in a batch. As a consequence, it is common
practice for researchers and practitioners to evaluate COCO metrics as a post
training evaluation step. With a graph-friendly algorithm to compute COCO Mean
Average Precision and recall, these metrics could be evaluated at training
time, improving visibility into the evolution of the metrics through training
curve plots, and decreasing iteration time when prototyping new model versions.
Our contributions include an accurate approximation algorithm for Mean
Average Precision, an open source implementation of both COCO mean average
precision and COCO recall, extensive numerical benchmarks to verify the
accuracy of our implementations, and an open-source training loop that include
train-time evaluation of mean average precision and recall.
- Abstract(参考訳): 現代のディープラーニングフレームワークの静的計算グラフの一部として、COCO平均平均精度(MaP)とCOCOリコールメトリクスを評価することは、ユニークな課題である。
これらの課題には、平均精度を計算するために動的サイズの状態を維持すること、メトリクスを計算するためにグローバルデータセットレベルの統計に依存すること、バッチ内の画像間で異なる数のバウンディングボックスを管理することが含まれる。
結果として、研究者や実践者がCOCOメトリクスをポストトレーニング評価ステップとして評価することが一般的である。
coco平均平均精度とリコールを計算するグラフフレンドリーなアルゴリズムによって、これらのメトリクスはトレーニング時に評価され、トレーニング曲線プロットによるメトリクスの進化の可視性が向上し、新しいモデルバージョンのプロトタイピング時のイテレーション時間が短縮される。
提案手法は,平均平均精度の正確な近似アルゴリズム,coco平均精度とcocoリコールのオープンソース実装,実装の精度を検証するための広範な数値ベンチマーク,平均精度とリコールのトレインタイム評価を含むオープンソースのトレーニングループなどを含む。
関連論文リスト
- When, Where and Why to Average Weights? [36.106114687828395]
トレーニング軌道に沿ってチェックポイントを平均化することは、機械学習モデルの一般化性能を改善するための強力なアプローチである。
平均化はトレーニングを著しく加速し、最小限の実装とメモリコストの価格でかなりの効率向上をもたらすことを示す。
論文 参考訳(メタデータ) (2025-02-10T18:40:48Z) - The Journey Matters: Average Parameter Count over Pre-training Unifies Sparse and Dense Scaling Laws [51.608402959163925]
本稿では,大規模言語モデルに対する最適スパース事前学習構成の体系的検討を行う。
総トレーニング計算の25%でプルーニングを開始し、75%で終了すると、ほぼ最適の最終評価損失が得られることがわかった。
本稿では,事前学習よりも平均パラメータ数を使用するように,チンチラスケーリング法を修正した新しいスケーリング法を提案する。
論文 参考訳(メタデータ) (2025-01-21T20:23:22Z) - Iterative Methods for Full-Scale Gaussian Process Approximations for Large Spatial Data [9.913418444556486]
本稿では, FSAを用いた確率, 勾配, 予測分布の計算コストの削減に, 反復法をどのように利用できるかを示す。
また,推定法や反復法に依存する予測分散を計算する新しい,正確かつ高速な手法を提案する。
すべてのメソッドは、ハイレベルなPythonとRパッケージを備えたフリーのC++ソフトウェアライブラリで実装されている。
論文 参考訳(メタデータ) (2024-05-23T12:25:22Z) - Overcoming Pitfalls in Graph Contrastive Learning Evaluation: Toward
Comprehensive Benchmarks [60.82579717007963]
本稿では,グラフコントラスト学習(GCL)手法の有効性,一貫性,全体的な能力をより正確に評価するために,拡張された評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-24T01:47:56Z) - Online Importance Sampling for Stochastic Gradient Optimization [33.42221341526944]
本稿では,トレーニング中のデータの重要度を効率的に計算する実用的なアルゴリズムを提案する。
また、ネットワーク出力の損失w.r.t.の導出に基づく新しいメトリクスを導入し、ミニバッチの重要度サンプリング用に設計した。
論文 参考訳(メタデータ) (2023-11-24T13:21:35Z) - Randomized Polar Codes for Anytime Distributed Machine Learning [66.46612460837147]
本稿では,低速な計算ノードに対して堅牢で,線形演算の近似計算と精度の両立が可能な分散コンピューティングフレームワークを提案する。
本稿では,復号化のための計算複雑性を低く保ちながら,実数値データを扱うための逐次復号アルゴリズムを提案する。
大規模行列乗算やブラックボックス最適化など,様々な文脈において,このフレームワークの潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-01T18:02:04Z) - Revisiting Long-tailed Image Classification: Survey and Benchmarks with
New Evaluation Metrics [88.39382177059747]
メトリクスのコーパスは、長い尾の分布で学習するアルゴリズムの正確性、堅牢性、およびバウンダリを測定するために設計されている。
ベンチマークに基づいて,CIFAR10およびCIFAR100データセット上での既存手法の性能を再評価する。
論文 参考訳(メタデータ) (2023-02-03T02:40:54Z) - Real-Time Regression with Dividing Local Gaussian Processes [62.01822866877782]
局所ガウス過程は、ガウス過程の回帰に基づく新しい、計算効率の良いモデリング手法である。
入力空間の反復的データ駆動分割により、実際にはトレーニングポイントの総数において、サブ線形計算複雑性が達成される。
実世界のデータセットに対する数値的な評価は、予測と更新の速度だけでなく、精度の点で他の最先端手法よりも有利であることを示している。
論文 参考訳(メタデータ) (2020-06-16T18:43:31Z) - Scalable Distributed Approximation of Internal Measures for Clustering
Evaluation [5.144809478361603]
クラスタリング評価のための内部測度はシルエット係数であり、計算には2つの距離計算が必要である。
本稿では,任意の距離に基づいてクラスタリングの評価を行うための厳密な近似を計算した最初のスケーラブルアルゴリズムを提案する。
また,このアルゴリズムは凝集や分離などのクラスタリング品質の他の内部指標の厳密な近似に適応可能であることも証明した。
論文 参考訳(メタデータ) (2020-03-03T10:28:14Z) - ScopeFlow: Dynamic Scene Scoping for Optical Flow [94.42139459221784]
我々は,光流の一般的なトレーニングプロトコルを変更することを提案する。
この改善は、挑戦的なデータをサンプリングする際のバイアスを観察することに基づいている。
トレーニングプロトコルでは,正規化と拡張の双方が減少することが判明した。
論文 参考訳(メタデータ) (2020-02-25T09:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。