論文の概要: Parsimonious Computing: A Minority Training Regime for Effective
Prediction in Large Microarray Expression Data Sets
- arxiv url: http://arxiv.org/abs/2005.08442v1
- Date: Mon, 18 May 2020 03:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 23:14:01.156930
- Title: Parsimonious Computing: A Minority Training Regime for Effective
Prediction in Large Microarray Expression Data Sets
- Title(参考訳): Parsimonious Computing: 大規模マイクロアレイ表現データセットにおける効果的な予測のためのマイノリティトレーニングレジーム
- Authors: Shailesh Sridhar, Snehanshu Saha, Azhar Shaikh, Rahul Yedida, Sriparna
Saha
- Abstract要約: 本稿では,限られた計算資源に制約された浅いアーキテクチャを用いて,大規模マイクロアレイデータセット上で遺伝子発現推論を行う手法を提案する。
データセットのランダムなサブサンプリング,適応型リプシッツ定数インスパイア学習率,新たなアクティベーション関数,A-ReLUを組み合わせることで,論文で報告された結果の達成に寄与した。
- 参考スコア(独自算出の注目度): 20.894226248856313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rigorous mathematical investigation of learning rates used in
back-propagation in shallow neural networks has become a necessity. This is
because experimental evidence needs to be endorsed by a theoretical background.
Such theory may be helpful in reducing the volume of experimental effort to
accomplish desired results. We leveraged the functional property of Mean Square
Error, which is Lipschitz continuous to compute learning rate in shallow neural
networks. We claim that our approach reduces tuning efforts, especially when a
significant corpus of data has to be handled. We achieve remarkable improvement
in saving computational cost while surpassing prediction accuracy reported in
literature. The learning rate, proposed here, is the inverse of the Lipschitz
constant. The work results in a novel method for carrying out gene expression
inference on large microarray data sets with a shallow architecture constrained
by limited computing resources. A combination of random sub-sampling of the
dataset, an adaptive Lipschitz constant inspired learning rate and a new
activation function, A-ReLU helped accomplish the results reported in the
paper.
- Abstract(参考訳): 浅層ニューラルネットワークのバックプロパゲーションに使用される学習率の厳密な数学的調査が不可欠である。
これは、理論的背景から実験的証拠が支持される必要があるためである。
このような理論は、望ましい結果を達成するための実験の量を減らすのに役立つかもしれない。
浅層ニューラルネットワークにおける学習率の計算には,Lipschitz 連続である Mean Square Error の機能的特性を利用した。
当社のアプローチは、特に大量のデータを扱う必要がある場合、チューニングの労力を削減します。
文献で報告されている予測精度を上回りながら,計算コストの節減を著しく改善する。
ここで提案された学習率は、リプシッツ定数の逆数である。
その結果、限られた計算資源に制約された浅いアーキテクチャを持つ大規模マイクロアレイデータセット上で遺伝子発現推定を行う新しい方法が得られた。
データセットのランダムなサブサンプリング,適応型リプシッツ定数インスパイア学習率,新たなアクティベーション関数,A-ReLUを組み合わせることで,論文で報告された結果の達成に寄与した。
関連論文リスト
- Automatic debiasing of neural networks via moment-constrained learning [0.0]
偏差推定器の回帰関数をネーティブに学習し,対象関数のサンプル平均値を取得する。
本稿では,自動脱バイアスの欠点に対処する新しいRR学習手法として,モーメント制約学習を提案する。
論文 参考訳(メタデータ) (2024-09-29T20:56:54Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Iterative self-transfer learning: A general methodology for response
time-history prediction based on small dataset [0.0]
本研究では,小さなデータセットに基づいてニューラルネットワークを学習するための反復的自己伝達学習手法を提案する。
提案手法は,小さなデータセットに対して,ほぼ一桁の精度でモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T18:48:04Z) - An Information-Theoretic Analysis of Compute-Optimal Neural Scaling Laws [24.356906682593532]
大規模ニューラルネットワークにおけるモデルとトレーニングデータセットサイズ間の計算-最適トレードオフについて検討する。
以上の結果から, チンチラの実証分析で裏付けられる線形関係が示唆された。
論文 参考訳(メタデータ) (2022-12-02T18:46:41Z) - Less is More: Rethinking Few-Shot Learning and Recurrent Neural Nets [2.824895388993495]
情報理論AEPに基づく信頼性学習の理論的保証を提供する。
次に、高効率なリカレントニューラルネット(RNN)フレームワークに焦点を当て、少数ショット学習のための縮小エントロピーアルゴリズムを提案する。
実験結果から,学習モデルのサンプル効率,一般化,時間的複雑さを向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-28T17:33:11Z) - Bagged Polynomial Regression and Neural Networks [0.0]
時系列とデータセットの回帰は、ニューラルネットワークと同じ関数クラスを近似することができる。
textitbagged regression (BPR)は、ニューラルネットワークの魅力的な代替品である。
BPRは、衛星データを用いた作物分類において、ニューラルネットワークと同様に機能する。
論文 参考訳(メタデータ) (2022-05-17T19:55:56Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - RIFLE: Backpropagation in Depth for Deep Transfer Learning through
Re-Initializing the Fully-connected LayEr [60.07531696857743]
事前訓練されたモデルを用いたディープ畳み込みニューラルネットワーク(CNN)の微調整は、より大きなデータセットから学習した知識をターゲットタスクに転送するのに役立つ。
転送学習環境におけるバックプロパゲーションを深める戦略であるRIFLEを提案する。
RIFLEは、深いCNN層の重み付けに意味のあるアップデートをもたらし、低レベルの機能学習を改善する。
論文 参考訳(メタデータ) (2020-07-07T11:27:43Z) - Real-Time Regression with Dividing Local Gaussian Processes [62.01822866877782]
局所ガウス過程は、ガウス過程の回帰に基づく新しい、計算効率の良いモデリング手法である。
入力空間の反復的データ駆動分割により、実際にはトレーニングポイントの総数において、サブ線形計算複雑性が達成される。
実世界のデータセットに対する数値的な評価は、予測と更新の速度だけでなく、精度の点で他の最先端手法よりも有利であることを示している。
論文 参考訳(メタデータ) (2020-06-16T18:43:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。