論文の概要: On the Normalization of Confusion Matrices: Methods and Geometric Interpretations
- arxiv url: http://arxiv.org/abs/2509.04959v1
- Date: Fri, 05 Sep 2025 09:36:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.551483
- Title: On the Normalization of Confusion Matrices: Methods and Geometric Interpretations
- Title(参考訳): 融合行列の正規化について:方法と幾何学的解釈
- Authors: Johan Erbani, Pierre-Edouard Portier, Elod Egyed-Zsigmond, Sonia Ben Mokhtar, Diana Nurbakova,
- Abstract要約: 反復的比例フィッティングを用いた両眼的正規化を提案する。
標準正規化とは異なり、この手法はクラス類似性の基盤構造を復元する。
混乱行列正規化とモデルの内部クラス表現の対応性を示す。
- 参考スコア(独自算出の注目度): 2.4097006540200434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The confusion matrix is a standard tool for evaluating classifiers by providing insights into class-level errors. In heterogeneous settings, its values are shaped by two main factors: class similarity -- how easily the model confuses two classes -- and distribution bias, arising from skewed distributions in the training and test sets. However, confusion matrix values reflect a mix of both factors, making it difficult to disentangle their individual contributions. To address this, we introduce bistochastic normalization using Iterative Proportional Fitting, a generalization of row and column normalization. Unlike standard normalizations, this method recovers the underlying structure of class similarity. By disentangling error sources, it enables more accurate diagnosis of model behavior and supports more targeted improvements. We also show a correspondence between confusion matrix normalizations and the model's internal class representations. Both standard and bistochastic normalizations can be interpreted geometrically in this space, offering a deeper understanding of what normalization reveals about a classifier.
- Abstract(参考訳): 混乱行列は、クラスレベルのエラーに対する洞察を提供することで分類器を評価するための標準ツールである。
不均一な設定では、その値は、クラス類似性(モデルがどのように2つのクラスを混乱させるか)と、トレーニングとテストセットにおける歪んだ分布から生じる分布バイアスの2つの主な要因によって形作られます。
しかし、混乱行列値は両者の混合を反映しており、個々の寄与を解消することは困難である。
これを解決するために,反復的比例フィッティング(Iterative Proportional Fitting)と行正規化,列正規化の一般化を導入する。
標準正規化とは異なり、この手法はクラス類似性の基盤構造を復元する。
エラーソースをアンタングルすることで、モデル動作のより正確な診断を可能にし、より標的となる改善をサポートする。
また、混乱行列正規化とモデルの内部クラス表現の対応を示す。
標準正規化と双確率正規化は、この空間で幾何学的に解釈することができ、分類器について正規化が何を示すかをより深く理解することができる。
関連論文リスト
- Benign Overfitting and the Geometry of the Ridge Regression Solution in Binary Classification [75.01389991485098]
リッジ回帰はクラスタ平均ベクトルのスケールによって定性的に異なる挙動を示す。
スケールが非常に大きいレジームでは、良心過剰を許容する条件は回帰タスクと同一であることが判明した。
論文 参考訳(メタデータ) (2025-03-11T01:45:42Z) - The Implicit Bias of Batch Normalization in Linear Models and Two-layer
Linear Convolutional Neural Networks [117.93273337740442]
勾配勾配勾配は、exp(-Omega(log2 t))$収束率でトレーニングデータ上の一様マージン分類器に収束することを示す。
また、バッチ正規化はパッチワイドの均一なマージンに対して暗黙の偏りを持つことを示す。
論文 参考訳(メタデータ) (2023-06-20T16:58:00Z) - Malign Overfitting: Interpolation Can Provably Preclude Invariance [30.776243638012314]
補間にもかかわらずモデルを適切に一般化する「良性過剰適合」は、堅牢性や公正性が望ましい設定に好ましくない可能性があることを示す。
本研究では,非補間型分類器の確率的不変性を学習するアルゴリズムを提案し,解析する。
論文 参考訳(メタデータ) (2022-11-28T19:17:31Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - On the Strong Correlation Between Model Invariance and Generalization [54.812786542023325]
一般化は、見えないデータを分類するモデルの能力をキャプチャする。
不変性はデータの変換におけるモデル予測の一貫性を測定する。
データセット中心の視点から、あるモデルの精度と不変性は異なるテストセット上で線形に相関している。
論文 参考訳(メタデータ) (2022-07-14T17:08:25Z) - A Normative Model of Classifier Fusion [4.111899441919164]
新たに相関したディリクレ分布に基づく確率的分類融合の階層的ベイズモデルを提案する。
提案モデルでは,古典的な独立性オピニオンプールと他の独立性融合アルゴリズムを特殊ケースとして扱う。
合成および実世界のデータセット上での核融合の不確かさの低減と正しさによって評価される。
論文 参考訳(メタデータ) (2021-06-03T11:52:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。