論文の概要: Seg-metrics: a Python package to compute segmentation metrics
- arxiv url: http://arxiv.org/abs/2403.07884v1
- Date: Fri, 12 Jan 2024 16:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 08:27:08.983643
- Title: Seg-metrics: a Python package to compute segmentation metrics
- Title(参考訳): Seg-metrics: セグメンテーションメトリクスを計算するPythonパッケージ
- Authors: Jingnan Jia, Marius Staring, Berend C. Stoel,
- Abstract要約: textttseg-metricsは、標準MISモデル評価のためのオープンソースのPythonパッケージである。
textttseg-metricsは複数のファイルフォーマットをサポートし、Python Package Index (PyPI)を通じて簡単にインストールできる
- 参考スコア(独自算出の注目度): 0.6827423171182151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In response to a concerning trend of selectively emphasizing metrics in medical image segmentation (MIS) studies, we introduce \texttt{seg-metrics}, an open-source Python package for standardized MIS model evaluation. Unlike existing packages, \texttt{seg-metrics} offers user-friendly interfaces for various overlap-based and distance-based metrics, providing a comprehensive solution. \texttt{seg-metrics} supports multiple file formats and is easily installable through the Python Package Index (PyPI). With a focus on speed and convenience, \texttt{seg-metrics} stands as a valuable tool for efficient MIS model assessment.
- Abstract(参考訳): 医用画像セグメンテーション(MIS)研究において,メトリクスを選択的に強調する傾向に対して,標準化MISモデル評価のためのオープンソースPythonパッケージである \texttt{seg-metrics} を導入する。
既存のパッケージとは異なり、 \texttt{seg-metrics} は様々なオーバーラップベースおよび距離ベースのメトリクスに対してユーザフレンドリーなインターフェイスを提供し、包括的なソリューションを提供する。
\texttt{seg-metrics} は複数のファイルフォーマットをサポートし、Python Package Index (PyPI) を通じて簡単にインストールできる。
速度と利便性に焦点をあてて、 texttt{seg-metrics} は効率的なMISモデル評価のための貴重なツールである。
関連論文リスト
- We Need to Talk About Classification Evaluation Metrics in NLP [34.73017509294468]
自然言語処理(NLP)モデルでは、一般化可能性は通常、精度、F-Measure、AUC-ROCといった標準メトリクスで測定される。
メトリクスの多様性とそれらのアプリケーションの任意性は、使用すべき最高のメトリックに対して、NLP内に合意がないことを示唆している。
ランダムガウス正規化Informednessメトリックがタスク性能の相似ベースラインであることを実証する。
論文 参考訳(メタデータ) (2024-01-08T11:40:48Z) - Panoptica -- instance-wise evaluation of 3D semantic and instance
segmentation maps [9.140078680017046]
Panopticaは2Dおよび3Dセグメンテーションマップからインスタンスワイドセグメンテーション品質メトリクスを計算するための汎用的でパフォーマンスに最適化されたパッケージである。
panopticaはPythonで実装されたオープンソースで、包括的なドキュメントとチュートリアルが付属している。
論文 参考訳(メタデータ) (2023-12-05T09:34:56Z) - SMART: Sentences as Basic Units for Text Evaluation [48.5999587529085]
本稿では,このような制約を緩和するSMARTと呼ばれる新しい指標を提案する。
文をトークンの代わりにマッチングの基本単位として扱い,ソフトマッチ候補と参照文に文マッチング関数を用いる。
この結果から,提案手法とモデルベースマッチング関数とのシステムレベルの相関は,全ての競合する指標よりも優れていた。
論文 参考訳(メタデータ) (2022-08-01T17:58:05Z) - DADApy: Distance-based Analysis of DAta-manifolds in Python [51.37841707191944]
DADApyは、高次元データの分析と特徴付けのためのピソンソフトウェアパッケージである。
固有次元と確率密度を推定し、密度に基づくクラスタリングを行い、異なる距離メトリクスを比較する方法を提供する。
論文 参考訳(メタデータ) (2022-05-04T08:41:59Z) - MISeval: a Metric Library for Medical Image Segmentation Evaluation [1.4680035572775534]
Pythonには標準化され再現可能な評価のための普遍的なメートル法ライブラリがない。
医用画像評価のためのメトリクスライブラリMISevalを提案する。
論文 参考訳(メタデータ) (2022-01-23T23:06:47Z) - Mlr3spatiotempcv: Spatiotemporal resampling methods for machine learning
in R [63.26453219947887]
このパッケージは、proglangRパッケージを直接mlr3機械学習フレームワークに統合する。
1つの利点は、包括的な機械学習ツールキットで一貫したレコメンデーションを使用することである。
論文 参考訳(メタデータ) (2021-10-25T06:48:29Z) - Scikit-dimension: a Python package for intrinsic dimension estimation [58.8599521537]
この技術ノートは、固有次元推定のためのオープンソースのPythonパッケージであるtextttscikit-dimensionを紹介している。
textttscikit-dimensionパッケージは、Scikit-learnアプリケーションプログラミングインターフェイスに基づいて、既知のID推定子のほとんどを均一に実装する。
パッケージを簡潔に記述し、実生活と合成データにおけるID推定手法の大規模(500以上のデータセット)ベンチマークでその使用を実証する。
論文 参考訳(メタデータ) (2021-09-06T16:46:38Z) - QuaPy: A Python-Based Framework for Quantification [76.22817970624875]
QuaPyは、定量化を行うためのオープンソースのフレームワークである(例えば、教師付き精度推定)。
Pythonで書かれており、pip経由でインストールできる。
論文 参考訳(メタデータ) (2021-06-18T13:57:11Z) - MOGPTK: The Multi-Output Gaussian Process Toolkit [71.08576457371433]
ガウス過程(GP)を用いたマルチチャネルデータモデリングのためのPythonパッケージMOGPTKを提案する。
このツールキットの目的は、研究者、データサイエンティスト、実践者にもMOGP(multi-output GP)モデルを利用できるようにすることである。
論文 参考訳(メタデータ) (2020-02-09T23:34:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。