論文の概要: On the Implicit Geometry of Cross-Entropy Parameterizations for
Label-Imbalanced Data
- arxiv url: http://arxiv.org/abs/2303.07608v1
- Date: Tue, 14 Mar 2023 03:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 16:36:25.044845
- Title: On the Implicit Geometry of Cross-Entropy Parameterizations for
Label-Imbalanced Data
- Title(参考訳): ラベル不均衡データに対するクロスエントロピーパラメータ化の入射幾何について
- Authors: Tina Behnia, Ganesh Ramachandra Kini, Vala Vakilian, Christos
Thrampoulidis
- Abstract要約: ラベインバランスデータの重み付きCE大モデルに代わるものとして,クロスエントロピー(CE)損失のロジット調整パラメータ化が提案されている。
マイノリティ不均衡比に関係なく,ロジット調整パラメータ化を適切に調整して学習することができることを示す。
- 参考スコア(独自算出の注目度): 26.310275682709776
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Various logit-adjusted parameterizations of the cross-entropy (CE) loss have
been proposed as alternatives to weighted CE for training large models on
label-imbalanced data far beyond the zero train error regime. The driving force
behind those designs has been the theory of implicit bias, which for
linear(ized) models, explains why they successfully induce bias on the
optimization path towards solutions that favor minorities. Aiming to extend
this theory to non-linear models, we investigate the implicit geometry of
classifiers and embeddings that are learned by different CE parameterizations.
Our main result characterizes the global minimizers of a non-convex
cost-sensitive SVM classifier for the unconstrained features model, which
serves as an abstraction of deep nets. We derive closed-form formulas for the
angles and norms of classifiers and embeddings as a function of the number of
classes, the imbalance and the minority ratios, and the loss hyperparameters.
Using these, we show that logit-adjusted parameterizations can be appropriately
tuned to learn symmetric geometries irrespective of the imbalance ratio. We
complement our analysis with experiments and an empirical study of convergence
accuracy in deep-nets.
- Abstract(参考訳): クロスエントロピー(CE)損失の様々なロジト調整パラメーター化は、ゼロ列車エラー体制をはるかに超越したラベル不均衡データの大規模モデルをトレーニングするための重み付きCEの代替案として提案されている。
これらの設計の背後にある原動力は暗黙の偏見の理論であり、これは線形(サイズ)モデルに対して、なぜマイノリティを好む解に対する最適化経路の偏見をうまく誘導したのかを説明するものである。
この理論を非線形モデルに拡張することを目指して、異なるceパラメータ化によって学習される分類器と埋め込みの暗黙的幾何について検討する。
我々の主な成果は、ディープネットの抽象化として機能する制約のない特徴モデルの非凸コスト感受性SVM分類器のグローバル最小化を特徴付けるものである。
クラス数、不均衡、マイノリティ比、損失超パラメータの関数として分類子と埋め込みの角度とノルムに対する閉形式公式を導出する。
これらを用いて,不均衡比によらず,ロジット調整パラメータ化を適切に調整して対称幾何分布を学習できることを示す。
我々は、実験とディープネットにおける収束精度の実証的研究で分析を補完する。
関連論文リスト
- Lie Algebra Canonicalization: Equivariant Neural Operators under arbitrary Lie Groups [11.572188414440436]
我々は、対称性群の無限小生成子の作用のみを利用する新しいアプローチであるLie aLgebrA Canonicalization (LieLAC)を提案する。
標準化のフレームワーク内で運用されているため、LieLACは制約のない事前訓練されたモデルと容易に統合できる。
論文 参考訳(メタデータ) (2024-10-03T17:21:30Z) - Variational Bayesian surrogate modelling with application to robust design optimisation [0.9626666671366836]
サロゲートモデルは複雑な計算モデルに対して素早く評価できる近似を提供する。
入力の不確かさと次元減少を伴う統計的代理を構築するためのベイズ推定について考察する。
コスト関数がモデル出力の平均および標準偏差の重み付け和に依存するような本質的で頑健な構造最適化問題を示す。
論文 参考訳(メタデータ) (2024-04-23T09:22:35Z) - Symmetry Breaking and Equivariant Neural Networks [17.740760773905986]
我々は「緩和された同注入」という新しい概念を導入する。
我々は、この緩和を同変多層パーセプトロン(E-MLP)に組み込む方法を示す。
対称性の破れの関連性は、様々な応用領域で議論される。
論文 参考訳(メタデータ) (2023-12-14T15:06:48Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - An iterative multi-fidelity approach for model order reduction of
multi-dimensional input parametric PDE systems [0.0]
多次元入力パラメトリック空間を用いた大規模PDEシステムの縮小のためのサンプリングパラメトリック戦略を提案する。
これはパラメトリック空間全体の低忠実度モデルを効率的なサンプリング戦略を用いてサンプリングポイントに利用することで達成される。
提案手法は,低忠実度モデルを用いてソリューションデータベースを同化するため,オフライン段階での計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2023-01-23T15:25:58Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - On how to avoid exacerbating spurious correlations when models are
overparameterized [33.315813572333745]
VS-lossは、たとえスプリアス機能が強いとしても、マイノリティに公平なモデルを学ぶことを示す。
これまでの研究と比較すると、我々の境界はより一般的なモデルであり、それらは漸近的ではなく、極端な不均衡のシナリオにも適用される。
論文 参考訳(メタデータ) (2022-06-25T21:53:44Z) - Evaluating Sensitivity to the Stick-Breaking Prior in Bayesian
Nonparametrics [85.31247588089686]
変分ベイズ法はベイズモデルのパラメトリック的および非パラメトリック的側面に対して感性が得られることを示す。
ベイズ感度分析に対する変動的アプローチの理論的および経験的支援を提供する。
論文 参考訳(メタデータ) (2021-07-08T03:40:18Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。