論文の概要: Neural Network Characterization and Entropy Regulated Data Balancing through Principal Component Analysis
- arxiv url: http://arxiv.org/abs/2312.01392v2
- Date: Tue, 30 Sep 2025 19:44:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.388805
- Title: Neural Network Characterization and Entropy Regulated Data Balancing through Principal Component Analysis
- Title(参考訳): 主成分分析によるニューラルネットワーク特性とエントロピー制御データバランシング
- Authors: David Yevick, Karolina Hutchison,
- Abstract要約: 本稿では, 主成分分析(PCA)の幾何学的構造について, 回転しないMNIST桁と回転したMNIST桁の分布を詳細に検討する。
厳密な幾何学的特徴を持つ桁は原点から離れた制限された領域にマッピングされるため、低次PCA空間の広さ、拡散度、重複度にマッピングされる桁よりも精度の高いニューラルネットワークによって予測される。
これらの結果により, 局所PCAエントロピーは, 低次主成分の空間領域をヒストグラムビンに分割し, 各入力クラスの出現数に関連するエントロピーを評価することにより得られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines in detail the geometric structure of principal component analysis (PCA) by considering in detail the distributions of both unrotated and rotated MNIST digits in the space defined by the lowest order PCA components. Since digits possessing salient geometric features are mapped to restricted regions far from the origin, they are predicted by neural networks with a greater accuracy than digits that are mapped to broad, diffuse and overlapping volumes of the low order PCA space. Motivated by these results, a new quantity, the local PCA entropy, obtained by dividing the spatial region spanned by the low order principal components into histogram bins and evaluating the entropy associated with the number of occurrences of each input class within a bin, is introduced. The metric locates the input data records that yield the largest confusion in prediction accuracy within reduced coordinate volumes that optimally discriminate among geometric features. As an example of the potential utility of the local PCA entropy, a simple data balancing procedure is realized by oversampling the data records in regions of large local entropy.
- Abstract(参考訳): 本稿では, 主成分分析 (PCA) の幾何学的構造を, 最小次PCA成分で定義される空間における非回転MNIST桁と回転MNIST桁の両方の分布を詳細に検討する。
厳密な幾何学的特徴を持つ桁は原点から離れた制限された領域にマッピングされるため、低次PCA空間の広さ、拡散度、重複度にマッピングされる桁よりも精度の高いニューラルネットワークによって予測される。
これらの結果により、低次主成分によって分散された空間領域をヒストグラムビンに分割し、ビン内の各入力クラスの発生数に関連するエントロピーを評価することにより、新しい量である局所PCAエントロピーが導入された。
メトリックは、幾何学的特徴間で最適な識別を行う縮小座標ボリューム内で、予測精度の最大の混乱をもたらす入力データレコードを特定する。
ローカルPCAエントロピーの潜在的有用性の一例として、大規模なローカルエントロピーの領域にデータレコードをオーバーサンプリングすることで、単純なデータバランシング手順を実現する。
関連論文リスト
- Mixed precision accumulation for neural network inference guided by componentwise forward error analysis [2.4374097382908477]
ニューラルネットワークの推論のための数学的に確立された混合精度蓄積戦略を提案する。
我々の戦略は、ニューラルネットワークの前方通過におけるエラーの伝播を説明する新しいコンポーネントワイズ・フォワード・エラー分析に基づいている。
論文 参考訳(メタデータ) (2025-03-19T09:19:11Z) - Steinmetz Neural Networks for Complex-Valued Data [23.80312814400945]
並列実値デッツワークと結合出力からなるDNNを用いて複素値データを処理する新しい手法を提案する。
提案するアーキテクチャのクラスは、Steinmetz Neural Networksと呼ばれ、多視点学習を利用して、潜在空間内でより解釈可能な表現を構築する。
提案手法は,これらのネットワークがベンチマーク・データセットや合成例で実現した改良性能と付加雑音を示す数値実験である。
論文 参考訳(メタデータ) (2024-09-16T08:26:06Z) - Resampling and averaging coordinates on data [1.660242118349614]
点雲上の固有座標を頑健に計算するアルゴリズムを導入する。
候補座標の集合をクラスタリングし、位相データ解析から形状記述子を用いて代表埋め込みのサブセットを同定する。
最終的な出力は、一般化されたProcrustes解析を用いて代表埋め込みの平均として得られる埋め込みである。
論文 参考訳(メタデータ) (2024-08-02T16:37:33Z) - Multilayer Multiset Neuronal Networks -- MMNNs [55.2480439325792]
本研究は,2層以上の類似性ニューロンを組み込んだ多層神経回路網について述べる。
また,回避すべき画像領域に割り当てられる反プロトタイプ点の利用についても検討した。
論文 参考訳(メタデータ) (2023-08-28T12:55:13Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - The Mean Dimension of Neural Networks -- What causes the interaction
effects? [0.9208007322096533]
Owen氏とHoyt氏は先日、この有効次元が、人工ニューラルネットワークの基盤となる入出力マッピングに関する重要な構造情報を提供することを示した。
本研究は,与えられたデータセットからの平均次元を計算可能な推定手順を提案する。
論文 参考訳(メタデータ) (2022-07-11T14:00:06Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Eigen Analysis of Self-Attention and its Reconstruction from Partial
Computation [58.80806716024701]
ドット積に基づく自己注意を用いて計算した注意点のグローバルな構造について検討する。
注意点の変動の大部分は低次元固有空間にあることがわかった。
トークンペアの部分的な部分集合に対してのみスコアを計算し、それを用いて残りのペアのスコアを推定する。
論文 参考訳(メタデータ) (2021-06-16T14:38:42Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Learning Optical Flow from a Few Matches [67.83633948984954]
密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
論文 参考訳(メタデータ) (2021-04-05T21:44:00Z) - Artificial Neural Networks to Impute Rounded Zeros in Compositional Data [0.0]
近年, 深層学習の手法が普及しているが, 構成データ分析には至っていない。
本稿では,人工ニューラルネットワークに基づく円周零点のインプット法を提案する。
annは、適度なサイズで丸められたゼロのデータセットを暗示するときに、競争力があるか、あるいはパフォーマンスが良いことを示すことができる。
論文 参考訳(メタデータ) (2020-12-18T15:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。