論文の概要: HyperMorph: Amortized Hyperparameter Learning for Image Registration
- arxiv url: http://arxiv.org/abs/2101.01035v1
- Date: Mon, 4 Jan 2021 15:39:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 22:50:47.763909
- Title: HyperMorph: Amortized Hyperparameter Learning for Image Registration
- Title(参考訳): hypermorph: 画像登録のためのamortized hyperparameter learning
- Authors: Andrew Hoopes, Malte Hoffmann, Bruce Fischl, John Guttag, Adrian V.
Dalca
- Abstract要約: HyperMorphは、変形可能な画像登録のための学習ベースの戦略です。
既存の検索戦略よりもはるかに高速に複数のハイパーパラメータを最適化できることを示す。
- 参考スコア(独自算出の注目度): 8.13669868327082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present HyperMorph, a learning-based strategy for deformable image
registration that removes the need to tune important registration
hyperparameters during training. Classical registration methods solve an
optimization problem to find a set of spatial correspondences between two
images, while learning-based methods leverage a training dataset to learn a
function that generates these correspondences. The quality of the results for
both types of techniques depends greatly on the choice of hyperparameters.
Unfortunately, hyperparameter tuning is time-consuming and typically involves
training many separate models with various hyperparameter values, potentially
leading to suboptimal results. To address this inefficiency, we introduce
amortized hyperparameter learning for image registration, a novel strategy to
learn the effects of hyperparameters on deformation fields. The proposed
framework learns a hypernetwork that takes in an input hyperparameter and
modulates a registration network to produce the optimal deformation field for
that hyperparameter value. In effect, this strategy trains a single, rich model
that enables rapid, fine-grained discovery of hyperparameter values from a
continuous interval at test-time. We demonstrate that this approach can be used
to optimize multiple hyperparameters considerably faster than existing search
strategies, leading to a reduced computational and human burden and increased
flexibility. We also show that this has several important benefits, including
increased robustness to initialization and the ability to rapidly identify
optimal hyperparameter values specific to a registration task, dataset, or even
a single anatomical region - all without retraining the HyperMorph model. Our
code is publicly available at http://voxelmorph.mit.edu.
- Abstract(参考訳): 学習中に重要な登録ハイパーパラメータをチューニングする必要をなくした,変形可能な画像登録のための学習ベースの戦略であるhypermorphを提案する。
古典的登録法は、2つの画像間の空間対応を探索する最適化問題を解く一方、学習に基づく手法はトレーニングデータセットを利用してこれらの対応を生成する関数を学習する。
どちらの手法でも結果の質はハイパーパラメータの選択に大きく依存する。
残念なことに、ハイパーパラメータチューニングは時間がかかり、通常、様々なハイパーパラメータ値を持つ多くの異なるモデルをトレーニングする。
この非効率性に対処するため,画像登録のための補正ハイパーパラメータ学習を導入し,変形場に対するハイパーパラメータの影響を学習する新しい手法を提案する。
提案フレームワークは,入力ハイパーパラメータを取り込むハイパーネットワークを学習し,登録ネットワークを変調し,そのハイパーパラメータ値の最適変形場を生成する。
実際、この戦略は、テスト時に連続的な間隔からハイパーパラメータ値の迅速かつきめ細かい発見を可能にする、単一のリッチなモデルを訓練する。
提案手法は,既存の探索手法よりもはるかに高速に複数のハイパーパラメータを最適化し,計算負荷と人的負担の低減と柔軟性の向上につながることを実証する。
これはまた、初期化に対する堅牢性の向上や、登録タスクやデータセット、さらには単一の解剖学的領域に特有の最適なハイパーパラメータ値を迅速に識別する能力など、いくつかの重要なメリットがあることも示しています。
私たちのコードはhttp://voxelmorph.mit.edu.で公開されています。
関連論文リスト
- Efficient Hyperparameter Importance Assessment for CNNs [1.7778609937758323]
本稿では,畳み込みニューラルネットワーク(CNN)におけるハイパーパラメータの重み付けを,N-RReliefFというアルゴリズムを用いて定量化する。
我々は10の人気のある画像分類データセットから1万以上のCNNモデルをトレーニングし、広範囲にわたる研究を行う。
論文 参考訳(メタデータ) (2024-10-11T15:47:46Z) - Optimization Hyper-parameter Laws for Large Language Models [56.322914260197734]
ハイパーパラメータとトレーニング結果の関係をキャプチャするフレームワークであるOps-Lawsを提案する。
さまざまなモデルサイズとデータスケールにわたる検証は、Opt-Lawsのトレーニング損失を正確に予測する能力を示しています。
このアプローチは、全体的なモデル性能を高めながら、計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2024-09-07T09:37:19Z) - HyperPredict: Estimating Hyperparameter Effects for Instance-Specific Regularization in Deformable Image Registration [2.2252684361733293]
医用画像登録法は、画像類似度メトリックを最大化することにより、画像のペア/グループを整列する幾何学変換を推定する。
正規化用語は、意味のある登録結果を得るために不可欠である。
本稿では,ハイパーパラメータの影響を評価し,与えられた画像対に対して最適な値を選択する方法を提案する。
論文 参考訳(メタデータ) (2024-03-04T14:17:30Z) - Learning the Effect of Registration Hyperparameters with HyperMorph [7.313453912494172]
我々は,学習に基づく変形可能な画像登録において,効率的なハイパーパラメータチューニングを容易にするHyperMorphを紹介した。
本研究では,高速かつ高分解能なハイパーパラメータ探索を実現することで,従来の手法の非効率性を低減できることを示す。
論文 参考訳(メタデータ) (2022-03-30T21:30:06Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - Scalable One-Pass Optimisation of High-Dimensional Weight-Update
Hyperparameters by Implicit Differentiation [0.0]
近似的過勾配型ハイパーパラメータオプティマイザを開発した。
トレーニングは1回のみであり、再スタートは行わない。
また、真の過次性への収束を動機づける議論も提供する。
論文 参考訳(メタデータ) (2021-10-20T09:57:57Z) - HyperNP: Interactive Visual Exploration of Multidimensional Projection
Hyperparameters [61.354362652006834]
HyperNPは、ニューラルネットワーク近似をトレーニングすることで、プロジェクションメソッドをリアルタイムにインタラクティブに探索できるスケーラブルな方法である。
我々は3つのデータセット間でのHyperNPの性能を,性能と速度の観点から評価した。
論文 参考訳(メタデータ) (2021-06-25T17:28:14Z) - Conditional Deformable Image Registration with Convolutional Neural
Network [15.83842747998493]
深部変形可能な画像登録のための条件付き画像登録手法と自己教師付き学習パラダイムを提案する。
提案手法は, 実行時の優位性や登録精度を犠牲にすることなく, 変形場の滑らかさを正確に制御することができる。
論文 参考訳(メタデータ) (2021-06-23T22:25:28Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - Rethinking the Hyperparameters for Fine-tuning [78.15505286781293]
事前訓練されたImageNetモデルからの微調整は、様々なコンピュータビジョンタスクのデファクトスタンダードとなっている。
ファインチューニングの現在のプラクティスは、通常、ハイパーパラメータのアドホックな選択を選択することである。
本稿では、微調整のためのハイパーパラメータの設定に関するいくつかの一般的なプラクティスを再検討する。
論文 参考訳(メタデータ) (2020-02-19T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。