論文の概要: Post-Train Adaptive U-Net for Image Segmentation
- arxiv url: http://arxiv.org/abs/2301.06358v1
- Date: Mon, 16 Jan 2023 11:06:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 16:06:46.429802
- Title: Post-Train Adaptive U-Net for Image Segmentation
- Title(参考訳): 画像分割のためのポストトレイン適応U-Net
- Authors: Kostiantyn Khabarlak
- Abstract要約: U-Net+PTAニューラルネットワークを導入し、一度トレーニングし、異なるデバイスパフォーマンスカテゴリに適応する。
ポストトレインの設定は、モバイルを含むあらゆる推論デバイス上で実行時に行うことができる。
PTAアプローチでは、CamVidデータセットのイメージセグメンテーションDiceスコアを改善することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typical neural network architectures used for image segmentation cannot be
changed without further training. This is quite limiting as the network might
not only be executed on a powerful server, but also on a mobile or edge device.
Adaptive neural networks offer a solution to the problem by allowing certain
adaptivity after the training process is complete. In this work for the first
time, we apply Post-Train Adaptive (PTA) approach to the task of image
segmentation. We introduce U-Net+PTA neural network, which can be trained once,
and then adapted to different device performance categories. The two key
components of the approach are PTA blocks and PTA-sampling training strategy.
The post-train configuration can be done at runtime on any inference device
including mobile. Also, the PTA approach has allowed to improve image
segmentation Dice score on the CamVid dataset. The final trained model can be
switched at runtime between 6 PTA configurations, which differ by inference
time and quality. Importantly, all of the configurations have better quality
than the original U-Net (No PTA) model.
- Abstract(参考訳): イメージセグメンテーションに使用される典型的なニューラルネットワークアーキテクチャは、さらなるトレーニングなしでは変更できない。
ネットワークは強力なサーバ上でだけでなく、モバイルやエッジデバイス上でも実行されるため、これはかなり制限される。
アダプティブニューラルネットワークは、トレーニングプロセスが完了した後に一定の適応性を許容することで、この問題に対する解決策を提供する。
本研究では,PTA(Post-Train Adaptive)アプローチを画像セグメンテーションの課題に適用する。
U-Net+PTAニューラルネットワークを導入し、一度トレーニングし、異なるデバイスパフォーマンスカテゴリに適応する。
このアプローチの2つの重要なコンポーネントは、PTAブロックとPTAサンプリングトレーニング戦略である。
トレーニング後の設定は、モバイルを含む任意の推論デバイス上で実行時に行うことができる。
また、PTAアプローチはCamVidデータセットのイメージセグメンテーションDiceスコアを改善することができる。
最終的なトレーニングモデルは、実行時に6つのPTA構成に切り換えることが可能で、推論時間と品質によって異なる。
重要なことに、すべての構成は元のU-Net(No PTA)モデルよりも品質が良い。
関連論文リスト
- Co-training $2^L$ Submodels for Visual Recognition [67.02999567435626]
サブモデルコトレーニングは、コトレーニング、自己蒸留、深さに関連する正規化手法である。
サブモデルのコトレーニングは,画像分類やセマンティックセグメンテーションなどの認識タスクのためのバックボーンのトレーニングに有効であることを示す。
論文 参考訳(メタデータ) (2022-12-09T14:38:09Z) - Post-Train Adaptive MobileNet for Fast Anti-Spoofing [0.0]
Post-Train Adaptive (PTA)ブロックはMobileNetV2 Inverted Residualブロックの代替である。
PTAブロックは計算コストの異なる複数の分岐を持つ。
モデルは一度トレーニングされ、トレーニング後に、モバイルデバイス上でも、簡単に再構成できる。
論文 参考訳(メタデータ) (2022-07-27T09:47:03Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Enhanced Performance of Pre-Trained Networks by Matched Augmentation
Distributions [10.74023489125222]
列車-テストの分散シフトに対処するための簡単な解を提案する。
テスト画像に対して、複数のランダムな作物に対して結果を合成する。
これは列車の時間拡張と一致するだけでなく、入力画像の完全なカバレッジも提供する。
論文 参考訳(メタデータ) (2022-01-19T22:33:00Z) - DAFormer: Improving Network Architectures and Training Strategies for
Domain-Adaptive Semantic Segmentation [99.88539409432916]
教師なしドメイン適応(UDA)プロセスについて検討する。
ベンチマーク結果に基づいて,新しい UDA 手法である DAFormer を提案する。
DAFormerは,GTA->Cityscapesの10.8 mIoU,Synthia->Cityscapesの5.4 mIoUにより,最先端の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-29T19:00:46Z) - Simultaneous Training of Partially Masked Neural Networks [67.19481956584465]
トレーニングされたフルネットワークから事前定義された'コア'サブネットワークを分割して,優れたパフォーマンスでニューラルネットワークをトレーニングすることが可能であることを示す。
低ランクコアを用いたトランスフォーマーのトレーニングは,低ランクモデル単独のトレーニングよりも優れた性能を有する低ランクモデルが得られることを示す。
論文 参考訳(メタデータ) (2021-06-16T15:57:51Z) - ResMLP: Feedforward networks for image classification with
data-efficient training [73.26364887378597]
画像分類のための多層パーセプトロン上に構築されたアーキテクチャであるResMLPを提案する。
Timmライブラリと事前トレーニングされたモデルに基づいたコードを共有します。
論文 参考訳(メタデータ) (2021-05-07T17:31:44Z) - Self domain adapted network [6.040230864736051]
ドメインシフトは、臨床実践においてディープネットワークをデプロイする上で大きな問題である。
単体テスト対象に迅速に適応できる新しい自己ドメイン適応ネットワーク(SDA-Net)を提案する。
論文 参考訳(メタデータ) (2020-07-07T01:41:34Z) - Side-Tuning: A Baseline for Network Adaptation via Additive Side
Networks [95.51368472949308]
適応は、トレーニングデータが少ない場合や、ネットワークのプリエンプションをエンコードしたい場合などに有効である。
本稿では,サイドチューニングという簡単な方法を提案する。
論文 参考訳(メタデータ) (2019-12-31T18:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。