論文の概要: Learning the Effect of Registration Hyperparameters with HyperMorph
- arxiv url: http://arxiv.org/abs/2203.16680v1
- Date: Wed, 30 Mar 2022 21:30:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:17:52.650759
- Title: Learning the Effect of Registration Hyperparameters with HyperMorph
- Title(参考訳): HyperMorph を用いた登録ハイパーパラメータの効果の学習
- Authors: Andrew Hoopes, Malte Hoffmann, Douglas N. Greve, Bruce Fischl, John
Guttag, Adrian V. Dalca
- Abstract要約: 我々は,学習に基づく変形可能な画像登録において,効率的なハイパーパラメータチューニングを容易にするHyperMorphを紹介した。
本研究では,高速かつ高分解能なハイパーパラメータ探索を実現することで,従来の手法の非効率性を低減できることを示す。
- 参考スコア(独自算出の注目度): 7.313453912494172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce HyperMorph, a framework that facilitates efficient
hyperparameter tuning in learning-based deformable image registration.
Classical registration algorithms perform an iterative pair-wise optimization
to compute a deformation field that aligns two images. Recent learning-based
approaches leverage large image datasets to learn a function that rapidly
estimates a deformation for a given image pair. In both strategies, the
accuracy of the resulting spatial correspondences is strongly influenced by the
choice of certain hyperparameter values. However, an effective hyperparameter
search consumes substantial time and human effort as it often involves training
multiple models for different fixed hyperparameter values and may lead to
suboptimal registration. We propose an amortized hyperparameter learning
strategy to alleviate this burden by learning the impact of hyperparameters on
deformation fields. We design a meta network, or hypernetwork, that predicts
the parameters of a registration network for input hyperparameters, thereby
comprising a single model that generates the optimal deformation field
corresponding to given hyperparameter values. This strategy enables fast,
high-resolution hyperparameter search at test-time, reducing the inefficiency
of traditional approaches while increasing flexibility. We also demonstrate
additional benefits of HyperMorph, including enhanced robustness to model
initialization and the ability to rapidly identify optimal hyperparameter
values specific to a dataset, image contrast, task, or even anatomical region,
all without the need to retrain models. We make our code publicly available at
http://hypermorph.voxelmorph.net.
- Abstract(参考訳): 我々は,学習に基づく変形可能な画像登録において,効率的なハイパーパラメータチューニングを容易にするHyperMorphを紹介する。
古典的登録アルゴリズムは、2つの画像を整列する変形場を計算するために反復的なペアワイズ最適化を行う。
最近の学習ベースのアプローチでは、大きな画像データセットを利用して、与えられた画像対の変形を迅速に推定する関数を学ぶ。
どちらの戦略においても、結果の空間対応の精度は特定のハイパーパラメータ値の選択によって強く影響される。
しかし、効果的なハイパーパラメータ探索は、しばしば異なる固定されたハイパーパラメータ値に対する複数のモデルのトレーニングを伴うため、かなりの時間と人的労力を消費する。
本研究では,超パラメータが変形場に与える影響を学習することにより,この負担を軽減するための非推奨ハイパーパラメータ学習戦略を提案する。
我々は,入力ハイパーパラメータに対する登録ネットワークのパラメータを予測するメタネットワーク(ハイパーネットワーク)を設計し,与えられたハイパーパラメータ値に対応する最適変形場を生成する単一モデルを構成する。
この戦略は、テスト時に高速で高解像度なハイパーパラメータ検索を可能にし、柔軟性を高めながら従来のアプローチの非効率性を低減する。
また,モデル初期化に対する堅牢性の向上や,データセット固有の最適なハイパーパラメータ値を迅速に識別する機能,イメージコントラスト,タスク,さらには解剖学的領域など,ハイパーモルフィックのメリットも示しています。
私たちはコードをhttp://hypermorph.voxelmorph.netで公開しています。
関連論文リスト
- Efficient Hyperparameter Importance Assessment for CNNs [1.7778609937758323]
本稿では,畳み込みニューラルネットワーク(CNN)におけるハイパーパラメータの重み付けを,N-RReliefFというアルゴリズムを用いて定量化する。
我々は10の人気のある画像分類データセットから1万以上のCNNモデルをトレーニングし、広範囲にわたる研究を行う。
論文 参考訳(メタデータ) (2024-10-11T15:47:46Z) - Optimization Hyper-parameter Laws for Large Language Models [56.322914260197734]
ハイパーパラメータとトレーニング結果の関係をキャプチャするフレームワークであるOps-Lawsを提案する。
さまざまなモデルサイズとデータスケールにわたる検証は、Opt-Lawsのトレーニング損失を正確に予測する能力を示しています。
このアプローチは、全体的なモデル性能を高めながら、計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2024-09-07T09:37:19Z) - ETHER: Efficient Finetuning of Large-Scale Models with Hyperplane Reflections [59.839926875976225]
本稿では,HypErplane Reflectionsによる高効率微調整を行うETHER変換ファミリを提案する。
特に,既存のPEFT法と極めて少ないパラメータで一致または性能を向上するEtheRと緩和ETHER+を導入する。
論文 参考訳(メタデータ) (2024-05-30T17:26:02Z) - HyperPredict: Estimating Hyperparameter Effects for Instance-Specific Regularization in Deformable Image Registration [2.2252684361733293]
医用画像登録法は、画像類似度メトリックを最大化することにより、画像のペア/グループを整列する幾何学変換を推定する。
正規化用語は、意味のある登録結果を得るために不可欠である。
本稿では,ハイパーパラメータの影響を評価し,与えられた画像対に対して最適な値を選択する方法を提案する。
論文 参考訳(メタデータ) (2024-03-04T14:17:30Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - HyperNP: Interactive Visual Exploration of Multidimensional Projection
Hyperparameters [61.354362652006834]
HyperNPは、ニューラルネットワーク近似をトレーニングすることで、プロジェクションメソッドをリアルタイムにインタラクティブに探索できるスケーラブルな方法である。
我々は3つのデータセット間でのHyperNPの性能を,性能と速度の観点から評価した。
論文 参考訳(メタデータ) (2021-06-25T17:28:14Z) - Conditional Deformable Image Registration with Convolutional Neural
Network [15.83842747998493]
深部変形可能な画像登録のための条件付き画像登録手法と自己教師付き学習パラダイムを提案する。
提案手法は, 実行時の優位性や登録精度を犠牲にすることなく, 変形場の滑らかさを正確に制御することができる。
論文 参考訳(メタデータ) (2021-06-23T22:25:28Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - HyperMorph: Amortized Hyperparameter Learning for Image Registration [8.13669868327082]
HyperMorphは、変形可能な画像登録のための学習ベースの戦略です。
既存の検索戦略よりもはるかに高速に複数のハイパーパラメータを最適化できることを示す。
論文 参考訳(メタデータ) (2021-01-04T15:39:16Z) - Automatic Hyper-Parameter Optimization Based on Mapping Discovery from
Data to Hyper-Parameters [3.37314595161109]
本稿では,データから対応するハイパーパラメータへのマッピングに基づく,効率的な自動パラメータ最適化手法を提案する。
提案手法は最先端のアポラッチを著しく上回ることを示す。
論文 参考訳(メタデータ) (2020-03-03T19:26:23Z) - Rethinking the Hyperparameters for Fine-tuning [78.15505286781293]
事前訓練されたImageNetモデルからの微調整は、様々なコンピュータビジョンタスクのデファクトスタンダードとなっている。
ファインチューニングの現在のプラクティスは、通常、ハイパーパラメータのアドホックな選択を選択することである。
本稿では、微調整のためのハイパーパラメータの設定に関するいくつかの一般的なプラクティスを再検討する。
論文 参考訳(メタデータ) (2020-02-19T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。