論文の概要: Look Ma, no code: fine tuning nnU-Net for the AutoPET II challenge by
only adjusting its JSON plans
- arxiv url: http://arxiv.org/abs/2309.13747v1
- Date: Sun, 24 Sep 2023 20:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 17:41:52.390103
- Title: Look Ma, no code: fine tuning nnU-Net for the AutoPET II challenge by
only adjusting its JSON plans
- Title(参考訳): ma, no code: json プランを調整するだけで autopet ii チャレンジ用に nnu-net を微調整する
- Authors: Fabian Isensee, Klaus H.Maier-Hein
- Abstract要約: nnU-Net は 'nnUNetPlans' ファイルの理解と修正が簡単である。
我々は、自動的に設定されたnnU-Netベースラインを大幅に上回る構成を得る。
提出の時点では、私たちのメソッドは予備テストセットにランク付けされます。
- 参考スコア(独自算出の注目度): 1.624954118746867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We participate in the AutoPET II challenge by modifying nnU-Net only through
its easy to understand and modify 'nnUNetPlans.json' file. By switching to a
UNet with residual encoder, increasing the batch size and increasing the patch
size we obtain a configuration that substantially outperforms the automatically
configured nnU-Net baseline (5-fold cross-validation Dice score of 65.14 vs
33.28) at the expense of increased compute requirements for model training. Our
final submission ensembles the two most promising configurations. At the time
of submission our method ranks first on the preliminary test set.
- Abstract(参考訳): 我々は,nUNetPlans.json'ファイルの理解と修正が簡単なため,nnU-Netを変更せずにAutoPET IIの課題に参加する。
残エンコーダ付きUNetに切り替えることで、バッチサイズを増大させ、パッチサイズを増大させることで、モデルトレーニングの計算要求の増加を犠牲にして、自動構成されたnnU-Netベースライン(5倍のクロスバリデーションDiceスコア65.14 vs 33.28)を大幅に上回る構成が得られる。
最後の提出は、最も有望な2つの構成をまとめます。
提出時点では,本手法は予備テストセットで第1位にランクする。
関連論文リスト
- Scaling nnU-Net for CBCT Segmentation [0.9854844969061186]
本稿では, Cone Beam Computed Tomography (CBCT) 画像上でのマルチ構造分割のための nnU-Net フレームワークのスケールアップについて述べる。
我々は nnU-Net ResEnc L モデルを活用し, パッチサイズ, ネットワークトポロジ, データ拡張戦略の鍵となる修正を加え, 歯科用CBCT イメージングの課題に対処した。
テストセットでは, 平均Dice係数が0.9253, HD95が18.472であり, 平均ランクが4.6であり, TothFairy2チャレンジでは第1位であった。
論文 参考訳(メタデータ) (2024-11-26T08:29:24Z) - Dynamic Pre-training: Towards Efficient and Scalable All-in-One Image Restoration [100.54419875604721]
オールインワン画像復元は、各分解に対してタスク固有の非ジェネリックモデルを持たずに、統一されたモデルで異なるタイプの劣化に対処する。
我々は、オールインワン画像復元タスクのためのエンコーダデコーダ方式で設計されたネットワークの動的ファミリであるDyNetを提案する。
我々のDyNetは、よりバルク化と軽量化をシームレスに切り替えることができるので、効率的なモデルデプロイメントのための柔軟性を提供します。
論文 参考訳(メタデータ) (2024-04-02T17:58:49Z) - WinNet: Make Only One Convolutional Layer Effective for Time Series Forecasting [11.232780368635416]
我々は、WinNetと呼ばれる1つの畳み込み層しか持たない非常に正確で単純なCNNベースのモデルを提案する。
その結果、WinNetは、CNNベースのメソッドよりもSOTA性能と複雑さが低いことを実証した。
論文 参考訳(メタデータ) (2023-11-01T01:23:59Z) - ConPET: Continual Parameter-Efficient Tuning for Large Language Models [65.48107393731861]
継続的な学習には、新しいタスクへのモデルの継続的な適応が必要である。
継続性を提案する。
効率的なチューニング(ConPET) - 一般化可能なパラダイム。
大規模言語モデルの連続的なタスク適応。
論文 参考訳(メタデータ) (2023-09-26T08:52:04Z) - Value Iteration Networks with Gated Summarization Module [7.289178621436725]
本稿では,VIN(Value Iteration Networks)が直面している,より大きな入力マップの処理と,繰り返しの増大による累積誤差の影響の軽減に対処する。
本稿では,GS-VIN (Gated Summarization Module) を用いた新しい手法であるValue Iteration Networksを提案する。
論文 参考訳(メタデータ) (2023-05-11T12:25:12Z) - An ensemble of VisNet, Transformer-M, and pretraining models for
molecular property prediction in OGB Large-Scale Challenge @ NeurIPS 2022 [48.109627319222334]
ViSNet Team はテストチェレンジセットで 0.0723 eV の MAE を達成し、昨年のベストメソッドと比較して誤差を 39.75% 削減した。
論文 参考訳(メタデータ) (2022-11-23T09:12:17Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - Dynamic Slimmable Network [105.74546828182834]
ダイナミックスリム化システム「ダイナミックスリム化ネットワーク(DS-Net)」を開発。
ds-netは,提案するダブルヘッド動的ゲートによる動的推論機能を備えている。
静的圧縮法と最先端の静的および動的モデル圧縮法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-03-24T15:25:20Z) - Bottleneck Transformers for Visual Recognition [97.16013761605254]
視覚タスクに自己注意を組み込んだ強力なバックボーンアーキテクチャであるBoTNetを提案する。
我々は、ImageNetベンチマークにおいて84.7%のトップ1の精度で高いパフォーマンスを達成するモデルを提案する。
私たちのシンプルで効果的なアプローチが、将来のビジョンのための自己注意モデル研究の強力なベースラインになることを期待しています。
論文 参考訳(メタデータ) (2021-01-27T18:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。