論文の概要: Artificial Neural Networks to Impute Rounded Zeros in Compositional Data
- arxiv url: http://arxiv.org/abs/2012.10300v1
- Date: Fri, 18 Dec 2020 15:31:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:20:07.594461
- Title: Artificial Neural Networks to Impute Rounded Zeros in Compositional Data
- Title(参考訳): 合成データ中の丸い零点をインデュートする人工ニューラルネットワーク
- Authors: Matthias Templ
- Abstract要約: 近年, 深層学習の手法が普及しているが, 構成データ分析には至っていない。
本稿では,人工ニューラルネットワークに基づく円周零点のインプット法を提案する。
annは、適度なサイズで丸められたゼロのデータセットを暗示するときに、競争力があるか、あるいはパフォーマンスが良いことを示すことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Methods of deep learning have become increasingly popular in recent years,
but they have not arrived in compositional data analysis. Imputation methods
for compositional data are typically applied on additive, centered or isometric
log-ratio representations of the data. Generally, methods for compositional
data analysis can only be applied to observed positive entries in a data
matrix. Therefore one tries to impute missing values or measurements that were
below a detection limit. In this paper, a new method for imputing rounded zeros
based on artificial neural networks is shown and compared with conventional
methods. We are also interested in the question whether for ANNs, a
representation of the data in log-ratios for imputation purposes, is relevant.
It can be shown, that ANNs are competitive or even performing better when
imputing rounded zeros of data sets with moderate size. They deliver better
results when data sets are big. Also, we can see that log-ratio transformations
within the artificial neural network imputation procedure nevertheless help to
improve the results. This proves that the theory of compositional data analysis
and the fulfillment of all properties of compositional data analysis is still
very important in the age of deep learning.
- Abstract(参考訳): 近年, 深層学習の手法が普及しているが, 構成データ分析には至っていない。
合成データのインプテーション法は、典型的にはデータの付加的、中心的、または等尺的対数比表現に適用される。
一般に、合成データ解析の手法は、データマトリックスの観測された正の成分にのみ適用できる。
したがって、検出限界未満の値や測定値の欠落を示唆しようとする。
本稿では,従来の手法と比較して,ニューラルネットワークに基づく丸い零点を示唆する新しい手法を提案する。
我々はまた、計算目的のログ比のデータ表現であるANNが関係しているかどうかにも関心を持っている。
annは、適度なサイズで丸められたゼロのデータセットを暗示するときに、競争力があるか、あるいはパフォーマンスが良いことを示すことができる。
データセットが大きくなると、より良い結果が得られます。
また、ニューラルネットワークインプテーションにおける対数比変換は、それでも結果を改善するのに役立つことが分かる。
これは、合成データ分析の理論と合成データ分析の全ての特性の充足が深層学習の時代において依然として非常に重要であることを証明している。
関連論文リスト
- Approaching Metaheuristic Deep Learning Combos for Automated Data Mining [0.5419570023862531]
本研究では,メタヒューリスティック手法を従来の分類器やニューラルネットワークと組み合わせて自動データマイニングを行う手法を提案する。
手書き文字認識のためのMNISTデータセットの実験を行った。
根拠真理ラベル付きデータセットの検証精度は、これまで見つからなかった他のデータインスタンスのラベルを修正するのに不十分である、という実証的な観察がなされた。
論文 参考訳(メタデータ) (2024-10-16T10:28:22Z) - Research and Implementation of Data Enhancement Techniques for Graph Neural Networks [10.575426305555538]
実用工学の応用では、より多くのデータが得られない状況や、データを取得するコストが高すぎる状況によって、いくつかのデータが影響を受ける。
本稿では、まず、グラフニューラルネットワークのデータ強化技術の要点を解析し、同時にグラフニューラルネットワークの奥行きの合成を紹介する。
論文 参考訳(メタデータ) (2024-06-18T14:07:38Z) - Group Distributionally Robust Dataset Distillation with Risk
Minimization [18.07189444450016]
本稿では,クラスタリングとリスク尺度の最小化を組み合わせ,DDを遂行する損失を最小化するアルゴリズムを提案する。
数値実験により,その有効一般化と部分群間のロバスト性を示す。
論文 参考訳(メタデータ) (2024-02-07T09:03:04Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - An Information-Theoretic Analysis of Compute-Optimal Neural Scaling Laws [24.356906682593532]
大規模ニューラルネットワークにおけるモデルとトレーニングデータセットサイズ間の計算-最適トレードオフについて検討する。
以上の結果から, チンチラの実証分析で裏付けられる線形関係が示唆された。
論文 参考訳(メタデータ) (2022-12-02T18:46:41Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - HYDRA: Hypergradient Data Relevance Analysis for Interpreting Deep
Neural Networks [51.143054943431665]
本稿では、深層ニューラルネットワーク(DNN)による予測をトレーニングデータの効果として解釈する高次データ関連分析(HYDRA)を提案する。
HYDRAは、トレーニング軌跡全体を通して、テストデータポイントに対するトレーニングデータの貢献を評価する。
さらに,HyDRAは,データのコントリビューションを正確に推定し,ノイズのあるデータラベルを検出することで,影響関数よりも優れていることを定量的に示す。
論文 参考訳(メタデータ) (2021-02-04T10:00:13Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。