論文の概要: F*: An Interpretable Transformation of the F-measure
- arxiv url: http://arxiv.org/abs/2008.00103v3
- Date: Thu, 18 Mar 2021 02:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 05:37:53.552920
- Title: F*: An Interpretable Transformation of the F-measure
- Title(参考訳): f*: f-測度の解釈可能な変換
- Authors: David J. Hand, Peter Christen, Nishadi Kirielle
- Abstract要約: F-measureはF1スコアとしても知られ、分類アルゴリズムの性能を評価するために広く使われている。
ここでは、F*(F-star)と呼ばれるF測度の簡単な変換について述べる。
- 参考スコア(独自算出の注目度): 2.7642870935482295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The F-measure, also known as the F1-score, is widely used to assess the
performance of classification algorithms. However, some researchers find it
lacking in intuitive interpretation, questioning the appropriateness of
combining two aspects of performance as conceptually distinct as precision and
recall, and also questioning whether the harmonic mean is the best way to
combine them. To ease this concern, we describe a simple transformation of the
F-measure, which we call F* (F-star), which has an immediate practical
interpretation.
- Abstract(参考訳): F-measureはF1スコアとしても知られ、分類アルゴリズムの性能を評価するために広く使われている。
しかし、ある研究者は直感的な解釈に欠けており、パフォーマンスの2つの側面を組み合わせることが、概念的に精度とリコールと区別されるかどうかを疑問視し、調和平均がそれらを組み合わせる最良の方法であるかどうかを疑問視している。
この懸念を緩和するために、我々はF*(F-star)と呼ばれるF測度の簡単な変換を記述し、即時的な解釈を持つ。
関連論文リスト
- Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Enriching Disentanglement: Definitions to Metrics [97.34033555407403]
分散表現学習は、複雑なデータの変動の複数の要因を分離する難題である。
不整合表現の学習と評価のための様々な指標が提案されているが、これらの指標が真に何を定量化し、どのように比較するかは定かではない。
論文 参考訳(メタデータ) (2023-05-19T08:22:23Z) - Exogenous Data in Forecasting: FARM -- A New Measure for Relevance
Evaluation [62.997667081978825]
FARM - Forward Relevance Aligned Metricという新しいアプローチを導入する。
我々のフォワード法は、その後のデータポイントの変化を時系列に合わせるために比較する角測度に依存する。
第1の検証ステップとして、FARMアプローチの合成信号・代表信号への適用について述べる。
論文 参考訳(メタデータ) (2023-04-21T15:22:33Z) - Backpropagation and F-adjoint [0.0]
本稿では,ニューラルネットワーク(ANN)のモデル重み学習トレーニングにおいて,フィードフォワードとバックワードの両方のプロセスについて検討する枠組みを提案する。
バックプロパゲーションのための2段階ルールの概念から着想を得て、バックプロパゲーションアルゴリズムのより良い記述を目的としたF-アジョイントの概念を定義する。
論文 参考訳(メタデータ) (2023-03-29T06:21:53Z) - Federated Learning as Variational Inference: A Scalable Expectation
Propagation Approach [66.9033666087719]
本稿では,推論の視点を拡張し,フェデレート学習の変分推論の定式化について述べる。
我々は、FedEPを標準フェデレーション学習ベンチマークに適用し、収束速度と精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2023-02-08T17:58:11Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Comparing Explanation Methods for Traditional Machine Learning Models
Part 2: Quantifying Model Explainability Faithfulness and Improvements with
Dimensionality Reduction [0.0]
忠実さ」または「忠実さ」とは、割り当てられた特徴の重要性と、その特徴のモデル性能への貢献の対応を指す。
本研究は,関係する特徴を限定することによる説明可能性の向上と,異なる説明可能性手法の相対的忠実性を知ることから,初めて説明可能性の向上を定量化した1つである。
論文 参考訳(メタデータ) (2022-11-18T17:15:59Z) - Algorithmic Fairness Verification with Graphical Models [24.8005399877574]
本稿では,ベイズネットワークのような特徴間の相関を符号化する,FVGMと呼ばれる効率の良いフェアネス検証手法を提案する。
FVGMは、より多様なフェアネス向上アルゴリズムのファミリーに対して、正確でスケーラブルな評価をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-20T12:05:14Z) - BCFNet: A Balanced Collaborative Filtering Network with Attention
Mechanism [106.43103176833371]
協調フィルタリング(CF)ベースの推奨方法が広く研究されている。
BCFNet(Balanced Collaborative Filtering Network)という新しい推薦モデルを提案する。
さらに注意機構は、暗黙のフィードバックの中で隠れた情報をよりよく捉え、ニューラルネットワークの学習能力を強化するように設計されている。
論文 参考訳(メタデータ) (2021-03-10T14:59:23Z) - 3D Correspondence Grouping with Compatibility Features [51.869670613445685]
本稿では,3次元対応グルーピングのための簡易かつ効果的な手法を提案する。
目的は、局所幾何学的記述子を不整合と外接点にマッチングすることによって得られる初期対応を正確に分類することである。
本稿では,不整合と不整合を表わすために,互換性特徴(CF)と呼ばれる3次元対応の表現を提案する。
論文 参考訳(メタデータ) (2020-07-21T02:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。