論文の概要: Sub-sampling of NMR Correlation and Exchange Experiments
- arxiv url: http://arxiv.org/abs/2401.00599v1
- Date: Sun, 31 Dec 2023 22:33:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 16:45:39.087126
- Title: Sub-sampling of NMR Correlation and Exchange Experiments
- Title(参考訳): NMR相関と交換実験のサブサンプリング
- Authors: Julian B. B. Beckmann, Mick D. Mantle, Andrew J. Sederman, Lynn F.
Gladden
- Abstract要約: インバージョン性能に及ぼすサブサンプリングの影響を評価する。
ディープラーニングは、正規化に基づく反転法よりも明らかに優れている。
完全にランダムなサンプリングは インバージョン法とは無関係に 最高の全体サンプリングスキームとして特定できる
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sub-sampling is applied to simulated $T_1$-$D$ NMR signals and its influence
on inversion performance is evaluated. For this different levels of
sub-sampling were employed ranging from the fully sampled signal down to only
less than two percent of the original data points. This was combined with
multiple sample schemes including fully random sampling, truncation and a
combination of both. To compare the performance of different inversion
algorithms, the so-generated sub-sampled signals were inverted using Tikhonov
regularization, modified total generalized variation (MTGV) regularization,
deep learning and a combination of deep learning and Tikhonov regularization.
Further, the influence of the chosen cost function on the relative inversion
performance was investigated. Overall, it could be shown that for a vast
majority of instances, deep learning clearly outperforms regularization based
inversion methods, if the signal is fully or close to fully sampled. However,
in the case of significantly sub-sampled signals regularization yields better
inversion performance than its deep learning counterpart with MTGV clearly
prevailing over Tikhonov. Additionally, fully random sampling could be
identified as the best overall sampling scheme independent of the inversion
method. Finally, it could also be shown that the choice of cost function does
vastly influence the relative rankings of the tested inversion algorithms
highlighting the importance of choosing the cost function accordingly to
experimental intentions.
- Abstract(参考訳): シミュレーションされた$T_1$-$D$NMR信号にサブサンプリングを適用し、インバージョン性能への影響を評価する。
この異なるレベルのサブサンプリングでは、完全なサンプル信号から元のデータポイントの2%未満まで、さまざまなレベルが採用されていた。
これは完全なランダムサンプリング、切断、両方の組み合わせを含む複数のサンプルスキームと組み合わされた。
異なる逆アルゴリズムの性能を比較するために、生成したサブサンプル信号は、Tikhonov正則化、改良された総一般化変動(MTGV)正則化、ディープラーニング、深層学習とTikhonov正則化の組み合わせを用いて反転した。
さらに,選択したコスト関数が相対反転性能に及ぼす影響について検討した。
全体として、ほとんどのケースにおいて、ディープラーニングは、信号が完全あるいは完全サンプリングに近い場合、正規化に基づく反転法よりも明らかに優れていることが示される。
しかし、かなりサブサンプル信号の正則化の場合、Tikhonov よりも明らかに MTGV の方が優れた逆変換性能が得られる。
さらに、完全なランダムサンプリングは、反転法とは無関係に、最善の全体サンプリングスキームとして同定できる。
最後に、コスト関数の選択は、試験されたインバージョンアルゴリズムの相対的なランクに大きく影響し、実験意図に従ってコスト関数を選択することの重要性を強調することも示せる。
関連論文リスト
- ANNE: Adaptive Nearest Neighbors and Eigenvector-based Sample Selection for Robust Learning with Noisy Labels [7.897299759691143]
本稿では,Adaptive Nearest Neighbors and Eigenvector-based sample selection methodを紹介する。
ANNEは、損失に基づくサンプリングとFINEとAdaptive KNNを統合し、幅広いノイズレートシナリオのパフォーマンスを最適化する。
論文 参考訳(メタデータ) (2024-11-03T15:51:38Z) - BELM: Bidirectional Explicit Linear Multi-step Sampler for Exact Inversion in Diffusion Models [11.063964007950249]
本稿では,汎用的な定式化 emphBidirectional Linear Explicit Multi-step (BELM) について紹介する。
BELMの定式化は可変段-形式線形多段法から導かれる。
精度の高いインバージョン・スライダの既存の設計が準最適最小化をもたらすことを示す。
論文 参考訳(メタデータ) (2024-10-09T06:32:26Z) - Revisiting Score Function Estimators for $k$-Subset Sampling [5.464421236280698]
離散フーリエ変換を用いて,$k$-subset分布のスコア関数を効率的に計算する方法を示す。
得られた推定器は、正確なサンプルと偏りのない勾配推定の両方を提供する。
特徴選択の実験は、仮定が弱いにもかかわらず、現在の手法と競合する結果を示している。
論文 参考訳(メタデータ) (2024-07-22T21:26:39Z) - Deep Learning as a Method for Inversion of NMR Signals [0.0]
ディープラーニングの概念はNMR信号の反転に用いられている。
ディープラーニングは、正規化技術と比較して、明確な効率性とユーザビリティの優位性を提供します。
論文 参考訳(メタデータ) (2023-11-22T22:31:54Z) - Data Pruning via Moving-one-Sample-out [61.45441981346064]
我々は移動1サンプルアウト(MoSo)と呼ばれる新しいデータ処理手法を提案する。
MoSoは、トレーニングセットから最も分かりにくいサンプルを特定し、削除することを目的としている。
実験結果から,MoSoは高プルーニング比で高い性能劣化を効果的に緩和することが示された。
論文 参考訳(メタデータ) (2023-10-23T08:00:03Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Adaptive Sketches for Robust Regression with Importance Sampling [64.75899469557272]
我々は、勾配降下(SGD)による頑健な回帰を解くためのデータ構造を導入する。
我々のアルゴリズムは、サブ線形空間を使用し、データに1回パスするだけで、SGDの$T$ステップを重要サンプリングで効果的に実行します。
論文 参考訳(メタデータ) (2022-07-16T03:09:30Z) - Stochastic Second-Order Methods Provably Beat SGD For Gradient-Dominated
Functions [42.57892322514602]
SCRNは,最もよく知られた勾配勾配勾配勾配の複雑さを$mathcalO(epsilon-1/2)$で改善することを示した。
また, SCRNのサンプルの複雑さは, バッチサイズが異なる分散還元法を用いて$mathcalO(epsilon-1/2)$で改善できることを示した。
論文 参考訳(メタデータ) (2022-05-25T15:33:00Z) - Towards Sample-Optimal Compressive Phase Retrieval with Sparse and
Generative Priors [59.33977545294148]
O(k log L)$サンプルは振幅に基づく経験損失関数を最小化する任意のベクトルに信号が近いことを保証するのに十分であることを示す。
この結果はスパース位相検索に適応し、基底信号が$s$-sparseおよび$n$-dimensionalである場合、$O(s log n)$サンプルは同様の保証に十分であることを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:54Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Learning to Sample with Local and Global Contexts in Experience Replay
Buffer [135.94190624087355]
遷移の相対的重要性を計算できる学習に基づく新しいサンプリング手法を提案する。
本研究の枠組みは, 様々な非政治強化学習手法の性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。