論文の概要: Look Ma, no code: fine tuning nnU-Net for the AutoPET II challenge by
only adjusting its JSON plans
- arxiv url: http://arxiv.org/abs/2309.13747v1
- Date: Sun, 24 Sep 2023 20:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 17:41:52.390103
- Title: Look Ma, no code: fine tuning nnU-Net for the AutoPET II challenge by
only adjusting its JSON plans
- Title(参考訳): ma, no code: json プランを調整するだけで autopet ii チャレンジ用に nnu-net を微調整する
- Authors: Fabian Isensee, Klaus H.Maier-Hein
- Abstract要約: nnU-Net は 'nnUNetPlans' ファイルの理解と修正が簡単である。
我々は、自動的に設定されたnnU-Netベースラインを大幅に上回る構成を得る。
提出の時点では、私たちのメソッドは予備テストセットにランク付けされます。
- 参考スコア(独自算出の注目度): 1.624954118746867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We participate in the AutoPET II challenge by modifying nnU-Net only through
its easy to understand and modify 'nnUNetPlans.json' file. By switching to a
UNet with residual encoder, increasing the batch size and increasing the patch
size we obtain a configuration that substantially outperforms the automatically
configured nnU-Net baseline (5-fold cross-validation Dice score of 65.14 vs
33.28) at the expense of increased compute requirements for model training. Our
final submission ensembles the two most promising configurations. At the time
of submission our method ranks first on the preliminary test set.
- Abstract(参考訳): 我々は,nUNetPlans.json'ファイルの理解と修正が簡単なため,nnU-Netを変更せずにAutoPET IIの課題に参加する。
残エンコーダ付きUNetに切り替えることで、バッチサイズを増大させ、パッチサイズを増大させることで、モデルトレーニングの計算要求の増加を犠牲にして、自動構成されたnnU-Netベースライン(5倍のクロスバリデーションDiceスコア65.14 vs 33.28)を大幅に上回る構成が得られる。
最後の提出は、最も有望な2つの構成をまとめます。
提出時点では,本手法は予備テストセットで第1位にランクする。
関連論文リスト
- Dynamic Pre-training: Towards Efficient and Scalable All-in-One Image Restoration [100.54419875604721]
オールインワン画像復元は、各分解に対してタスク固有の非ジェネリックモデルを持たずに、統一されたモデルで異なるタイプの劣化に対処する。
我々は、オールインワン画像復元タスクのためのエンコーダデコーダ方式で設計されたネットワークの動的ファミリであるDyNetを提案する。
我々のDyNetは、よりバルク化と軽量化をシームレスに切り替えることができるので、効率的なモデルデプロイメントのための柔軟性を提供します。
論文 参考訳(メタデータ) (2024-04-02T17:58:49Z) - ConPET: Continual Parameter-Efficient Tuning for Large Language Models [65.48107393731861]
継続的な学習には、新しいタスクへのモデルの継続的な適応が必要である。
継続性を提案する。
効率的なチューニング(ConPET) - 一般化可能なパラダイム。
大規模言語モデルの連続的なタスク適応。
論文 参考訳(メタデータ) (2023-09-26T08:52:04Z) - Value Iteration Networks with Gated Summarization Module [7.289178621436725]
本稿では,VIN(Value Iteration Networks)が直面している,より大きな入力マップの処理と,繰り返しの増大による累積誤差の影響の軽減に対処する。
本稿では,GS-VIN (Gated Summarization Module) を用いた新しい手法であるValue Iteration Networksを提案する。
論文 参考訳(メタデータ) (2023-05-11T12:25:12Z) - An ensemble of VisNet, Transformer-M, and pretraining models for
molecular property prediction in OGB Large-Scale Challenge @ NeurIPS 2022 [48.109627319222334]
ViSNet Team はテストチェレンジセットで 0.0723 eV の MAE を達成し、昨年のベストメソッドと比較して誤差を 39.75% 削減した。
論文 参考訳(メタデータ) (2022-11-23T09:12:17Z) - LilNetX: Lightweight Networks with EXtreme Model Compression and
Structured Sparsification [36.651329027209634]
LilNetXは、ニューラルネットワークのためのエンドツーエンドのトレーニング可能なテクニックである。
特定の精度-レート-計算トレードオフを持つ学習モデルを可能にする。
論文 参考訳(メタデータ) (2022-04-06T17:59:10Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - Dynamic Slimmable Network [105.74546828182834]
ダイナミックスリム化システム「ダイナミックスリム化ネットワーク(DS-Net)」を開発。
ds-netは,提案するダブルヘッド動的ゲートによる動的推論機能を備えている。
静的圧縮法と最先端の静的および動的モデル圧縮法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-03-24T15:25:20Z) - FAT: Learning Low-Bitwidth Parametric Representation via Frequency-Aware
Transformation [31.546529106932205]
周波数認識変換(fat)は、量子化前に周波数領域のネットワーク重み変換を学習する。
FATは、簡単な標準量子化器を使用して、低精度で簡単にトレーニングできます。
コードはもうすぐ入手できる。
論文 参考訳(メタデータ) (2021-02-15T10:35:20Z) - Bottleneck Transformers for Visual Recognition [97.16013761605254]
視覚タスクに自己注意を組み込んだ強力なバックボーンアーキテクチャであるBoTNetを提案する。
我々は、ImageNetベンチマークにおいて84.7%のトップ1の精度で高いパフォーマンスを達成するモデルを提案する。
私たちのシンプルで効果的なアプローチが、将来のビジョンのための自己注意モデル研究の強力なベースラインになることを期待しています。
論文 参考訳(メタデータ) (2021-01-27T18:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。