論文の概要: TransRUPNet for Improved Out-of-Distribution Generalization in Polyp
Segmentation
- arxiv url: http://arxiv.org/abs/2306.02176v2
- Date: Wed, 5 Jul 2023 15:29:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 20:24:11.291960
- Title: TransRUPNet for Improved Out-of-Distribution Generalization in Polyp
Segmentation
- Title(参考訳): ポリプセグメンテーションにおけるアウト・オブ・ディストリビューション一般化のためのTransRUPNet
- Authors: Debesh Jha, Nikhil Kumar Tomar, Debayan Bhattacharya, Ulas Bagci
- Abstract要約: 我々は,新しいリアルタイムディープラーニングアーキテクチャであるTransRUPNetを開発した。
提案アーキテクチャは,3つのエンコーダブロック,3つのデコーダブロック,さらにネットワーク終端にいくつかのアップサンプリングブロックで構成されるエンコーダ・デコーダネットワークである。
画像サイズが256times256$の場合,提案手法は1秒あたりのtextbf47.07 フレームのリアルタイム動作速度に優れる。
- 参考スコア(独自算出の注目度): 2.3293678240472517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Out-of-distribution (OOD) generalization is a critical challenge in deep
learning. It is specifically important when the test samples are drawn from a
different distribution than the training data. We develop a novel real-time
deep learning based architecture, TransRUPNet that is based on a Transformer
and residual upsampling network for colorectal polyp segmentation to improve
OOD generalization. The proposed architecture, TransRUPNet, is an
encoder-decoder network that consists of three encoder blocks, three decoder
blocks, and some additional upsampling blocks at the end of the network. With
the image size of $256\times256$, the proposed method achieves an excellent
real-time operation speed of \textbf{47.07} frames per second with an average
mean dice coefficient score of 0.7786 and mean Intersection over Union of
0.7210 on the out-of-distribution polyp datasets. The results on the publicly
available PolypGen dataset (OOD dataset in our case) suggest that TransRUPNet
can give real-time feedback while retaining high accuracy for in-distribution
dataset. Furthermore, we demonstrate the generalizability of the proposed
method by showing that it significantly improves performance on OOD datasets
compared to the existing methods.
- Abstract(参考訳): out-of-distribution (ood) 一般化はディープラーニングにおいて重要な課題である。
テストサンプルがトレーニングデータとは異なる分布から引き出される場合、特に重要である。
本稿では,大腸ポリープセグメント化のためのトランスフォーマーと残差アップサンプリングネットワークに基づく,新しいリアルタイム深層学習ベースアーキテクチャであるtransrupnetを開発した。
提案アーキテクチャであるTransRUPNetは、3つのエンコーダブロック、3つのデコーダブロックと、ネットワークの終端にある追加のアップサンプリングブロックで構成されるエンコーダ・デコーダネットワークである。
画像サイズが256\times256$の場合,提案手法は,平均ダイス係数スコア0.7786,平均ポリプデータセット0.7210で,1秒あたりのリアルタイム動作速度が良好である。
polypgen dataset (ood dataset in our case) の公開結果から,transrupnet はインディストリビューションデータセットの精度を維持しつつ,リアルタイムのフィードバックを提供することができることが示唆された。
さらに,提案手法の一般化性について,既存の手法と比較してOODデータセットの性能を著しく向上させることを示した。
関連論文リスト
- TransNetR: Transformer-based Residual Network for Polyp Segmentation
with Multi-Center Out-of-Distribution Testing [2.3293678240472517]
大腸ポリープ分割のためのトランスフォーマーを用いたResidual Network(TransNetR)を提案する。
TransNetRは、トレーニング済みのResNet50をエンコーダとして、3つのデコーダブロックと、ネットワークの終端にあるアップサンプリング層で構成されるエンコーダ・デコーダネットワークである。
高いダイス係数は0.8706、平均インターセクションは0.8016であり、Kvasir-SEGデータセット上でのリアルタイム処理速度は54.60である。
論文 参考訳(メタデータ) (2023-03-13T19:11:17Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Lightweight and Progressively-Scalable Networks for Semantic
Segmentation [100.63114424262234]
マルチスケール学習フレームワークは,セマンティックセグメンテーションを向上する有効なモデルのクラスと見なされてきた。
本稿では,畳み込みブロックの設計と,複数スケールにわたる相互作用の仕方について,徹底的に解析する。
我々は,軽量で拡張性の高いネットワーク(LPS-Net)を考案した。
論文 参考訳(メタデータ) (2022-07-27T16:00:28Z) - Efficient Context-Aware Network for Abdominal Multi-organ Segmentation [8.92337236455273]
腹腔内多臓器分画を効果的かつ効果的に行うための網羅的粗粒化フレームワークを開発した。
デコーダモジュールでは、k*k*1のスライス内畳み込みと1*1*kのスライス間畳み込みによる異方性畳み込みが、負担を軽減するように設計されている。
コンテキストブロックに対して、異方性と長距離のコンテキスト情報をキャプチャするためのストリッププーリングモジュールを提案する。
論文 参考訳(メタデータ) (2021-09-22T09:05:59Z) - ReduNet: A White-box Deep Network from the Principle of Maximizing Rate
Reduction [32.489371527159236]
この研究は、データ圧縮と識別表現の原理から、現代の深層(畳み込み)ネットワークを解釈することを目的とした、妥当な理論フレームワークの提供を試みる。
高次元マルチクラスデータに対して、最適な線形判別表現は、データセット全体と全てのサブセットの平均との符号化速度差を最大化することを示す。
速度減少目標を最適化するための基本的反復的勾配上昇スキームは,現代のディープネットワークの共通特性を共有する多層ディープネットワークであるReduNetに自然に導かれることを示す。
論文 参考訳(メタデータ) (2021-05-21T16:29:57Z) - A Holistically-Guided Decoder for Deep Representation Learning with
Applications to Semantic Segmentation and Object Detection [74.88284082187462]
一般的な戦略の1つは、バックボーンネットワークに拡張畳み込みを採用し、高解像度のフィーチャーマップを抽出することです。
本稿では,高分解能なセマンティクスリッチな特徴マップを得るために紹介される,新たなホリスティック誘導デコーダを提案する。
論文 参考訳(メタデータ) (2020-12-18T10:51:49Z) - Regularizing Deep Networks with Semantic Data Augmentation [44.53483945155832]
従来の手法を補完する新しい意味データ拡張アルゴリズムを提案する。
提案手法はディープネットワークが線形化特徴の学習に有効であるという興味深い性質に着想を得たものである。
提案した暗黙的セマンティックデータ拡張(ISDA)アルゴリズムは,新たなロバストCE損失を最小限に抑える。
論文 参考訳(メタデータ) (2020-07-21T00:32:44Z) - Learning Robust Feature Representations for Scene Text Detection [0.0]
本稿では、条件付きログを最大化するために、損失から導かれるネットワークアーキテクチャを提案する。
潜伏変数の層を複数の層に拡張することで、ネットワークは大規模に堅牢な機能を学ぶことができる。
実験では,提案アルゴリズムはリコール法と精度の両面で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-05-26T01:06:47Z) - Joint Multi-Dimension Pruning via Numerical Gradient Update [120.59697866489668]
本稿では,空間,深さ,チャネルの3つの重要な側面において,ネットワークを同時に切断する方法であるジョイント・マルチディメンジョン・プルーニング(ジョイント・プルーニング)を提案する。
本手法は,1つのエンドツーエンドトレーニングにおいて3次元にわたって協調的に最適化され,従来よりも効率がよいことを示す。
論文 参考訳(メタデータ) (2020-05-18T17:57:09Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。