論文の概要: Data Augmentation Through Monte Carlo Arithmetic Leads to More
Generalizable Classification in Connectomics
- arxiv url: http://arxiv.org/abs/2109.09649v1
- Date: Mon, 20 Sep 2021 16:06:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 20:39:27.094429
- Title: Data Augmentation Through Monte Carlo Arithmetic Leads to More
Generalizable Classification in Connectomics
- Title(参考訳): モンテカルロ算術によるデータ拡張はコネクトミクスの分類をより一般化させる
- Authors: Gregory Kiar, Yohan Chatelain, Ali Salari, Alan C. Evans, Tristan
Glatard
- Abstract要約: 我々はMonte Carlo Arithmeticを用いて構造コネクトーム推定パイプラインを摂動する。
摂動ネットワークは、拡張データセットでキャプチャされ、年齢分類タスクに使用された。
この利点は、大量の摂動を妨げないので、データセットを極小に摂動しても意味のあるばらつきを生じさせ、その後に設計されたモデルで捉えることができることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are commonly applied to human brain imaging datasets
in an effort to associate function or structure with behaviour, health, or
other individual phenotypes. Such models often rely on low-dimensional maps
generated by complex processing pipelines. However, the numerical instabilities
inherent to pipelines limit the fidelity of these maps and introduce
computational bias. Monte Carlo Arithmetic, a technique for introducing
controlled amounts of numerical noise, was used to perturb a structural
connectome estimation pipeline, ultimately producing a range of plausible
networks for each sample. The variability in the perturbed networks was
captured in an augmented dataset, which was then used for an age classification
task. We found that resampling brain networks across a series of such
numerically perturbed outcomes led to improved performance in all tested
classifiers, preprocessing strategies, and dimensionality reduction techniques.
Importantly, we find that this benefit does not hinge on a large number of
perturbations, suggesting that even minimally perturbing a dataset adds
meaningful variance which can be captured in the subsequently designed models.
- Abstract(参考訳): 機械学習モデルは、人間の脳画像データセットに一般的に適用され、機能や構造を行動、健康、その他の個々の表現型に関連付ける。
このようなモデルは、複雑な処理パイプラインによって生成される低次元マップに依存することが多い。
しかし、パイプライン固有の数値不安定性はこれらの写像の忠実さを制限し、計算バイアスを導入する。
モンテカルロ・アリストメティクス(Monte Carlo Arithmetic)は、制御された数値ノイズを導入する手法で、構造的コネクトーム推定パイプラインを摂動させ、最終的に各サンプルに対して様々な可塑性ネットワークを生成する。
摂動ネットワークの変動性は拡張データセットで捉えられ、年齢分類タスクに使用された。
その結果,脳ネットワークを数値的に乱れた結果に再サンプリングすることで,テスト済みの分類器,前処理戦略,次元減少技術の性能が向上することがわかった。
重要なのは、この利点が多くの摂動にかかっていないことであり、データセットを最小に摂動しても、その後の設計モデルで捉えられる有意義な分散が生じることを示唆している。
関連論文リスト
- WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - Deep Networks as Denoising Algorithms: Sample-Efficient Learning of
Diffusion Models in High-Dimensional Graphical Models [22.353510613540564]
生成モデルにおけるディープニューラルネットワークによるスコア関数の近似効率について検討する。
楽譜関数はしばしば変分推論法を用いてグラフィカルモデルでよく近似される。
深層ニューラルネットワークによってスコア関数が学習されるとき,拡散に基づく生成モデルに縛られた効率的なサンプル複雑性を提供する。
論文 参考訳(メタデータ) (2023-09-20T15:51:10Z) - Dense Hebbian neural networks: a replica symmetric picture of supervised
learning [4.133728123207142]
我々は教師が指導する高密度で連想的なニューラルネットについて検討する。
スピングラスの統計力学およびモンテカルロシミュレーションによる数値計算能力の解析を行った。
論文 参考訳(メタデータ) (2022-11-25T13:37:47Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Prediction of Object Geometry from Acoustic Scattering Using
Convolutional Neural Networks [8.067201256886733]
本研究は,畳み込みニューラルネットワークを訓練することにより,散乱特徴から物体形状を推定することを提案する。
データ劣化に対する我々のアプローチの堅牢性は、データセットを用いてトレーニングされたネットワークの性能を比較して評価する。
論文 参考訳(メタデータ) (2020-10-21T00:51:14Z) - Neural Networks and Polynomial Regression. Demystifying the
Overparametrization Phenomena [17.205106391379026]
ニューラルネットワークモデルでは、過度パラメトリゼーション(overparametrization)は、これらのモデルが見えないデータに対してうまく一般化しているように見える現象を指す。
この現象の従来の説明は、データのトレーニングに使用されるアルゴリズムの自己正規化特性に基づいている。
教師ネットワークが生成したデータを補間する学生ネットワークは,少なくともデータ次元によって制御される明示的な量である場合,よく一般化することを示す。
論文 参考訳(メタデータ) (2020-03-23T20:09:31Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z) - A Multi-Scale Tensor Network Architecture for Classification and
Regression [0.0]
テンソルネットワークを用いた教師あり学習のためのアルゴリズムを提案する。
我々はウェーブレット変換の連続を通して粗粒化によってデータを前処理するステップを採用する。
ネットワークを通しての細粒化がモデルの初期化にどのように利用されるかを示す。
論文 参考訳(メタデータ) (2020-01-22T21:26:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。