論文の概要: T-Net: Learning Feature Representation with Task-specific Supervision
for Biomedical Image Analysis
- arxiv url: http://arxiv.org/abs/2002.08406v2
- Date: Sat, 9 Jan 2021 08:28:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 14:29:51.094993
- Title: T-Net: Learning Feature Representation with Task-specific Supervision
for Biomedical Image Analysis
- Title(参考訳): t-net: 生体画像解析のためのタスク固有の監督を伴う学習特徴表現
- Authors: Weinan Song, Yuan Liang, Jiawei Yang, Kun Wang, Lei He
- Abstract要約: 本稿では,特徴抽出器の注意を各タスクに応じて適応させて,効果的な表現学習を行うことにより,新たな学習戦略を提案する。
具体的には、T-Netという名前のフレームワークは、タスク固有の注意マップによって教師される符号化ネットワークと、学習した特徴を取り入れて対応する結果を予測する後部ネットワークから構成される。
- 参考スコア(独自算出の注目度): 18.612108108320424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The encoder-decoder network is widely used to learn deep feature
representations from pixel-wise annotations in biomedical image analysis. Under
this structure, the performance profoundly relies on the effectiveness of
feature extraction achieved by the encoding network. However, few models have
considered adapting the attention of the feature extractor even in different
kinds of tasks. In this paper, we propose a novel training strategy by adapting
the attention of the feature extractor according to different tasks for
effective representation learning. Specifically, the framework, named T-Net,
consists of an encoding network supervised by task-specific attention maps and
a posterior network that takes in the learned features to predict the
corresponding results. The attention map is obtained by the transformation from
pixel-wise annotations according to the specific task, which is used as the
supervision to regularize the feature extractor to focus on different locations
of the recognition object. To show the effectiveness of our method, we evaluate
T-Net on two different tasks, i.e. , segmentation and localization. Extensive
results on three public datasets (BraTS-17, MoNuSeg and IDRiD) have indicated
the effectiveness and efficiency of our proposed supervision method, especially
over the conventional encoding-decoding network.
- Abstract(参考訳): エンコーダ-デコーダネットワークは、生物医学的画像解析においてピクセル毎のアノテーションから深い特徴表現を学ぶために広く使われている。
この構造下での性能は、エンコーディングネットワークによって達成された特徴抽出の有効性に大きく依存する。
しかし,様々なタスクにおいて,特徴抽出器の注意を適応させるモデルはほとんどない。
本稿では,特徴抽出器の注意を異なるタスクに適応させ,効果的な表現学習を実現する新しい学習戦略を提案する。
具体的には、タスク固有の注意マップによって教師される符号化ネットワークと、学習した特徴を取り入れて対応する結果を予測する後続ネットワークから構成される。
注目マップは、特定のタスクに応じて画素単位のアノテーションから変換され、特徴抽出器を正規化して認識対象の異なる位置に集中させる監督に使用される。
提案手法の有効性を示すため,T-Netを2つのタスク,すなわちセグメンテーションとローカライゼーションで評価した。
3つの公開データセット(BraTS-17, MoNuSeg, IDRiD)の広範な結果から,提案手法の有効性と効果が示唆された。
関連論文リスト
- Densely Decoded Networks with Adaptive Deep Supervision for Medical
Image Segmentation [19.302294715542175]
本稿では「クラッチ」ネットワーク接続を選択的に導入し、高密度デコードネットワーク(ddn)を提案する。
ネットワークデコーダの各アップサンプリングステージにおける「クラッチ」接続により、ターゲットのローカライゼーションが向上する。
また、適応的な深層監視(ads)に基づくトレーニング戦略を提案し、入力データセットの特定の属性を利用して適応する。
論文 参考訳(メタデータ) (2024-02-05T00:44:57Z) - A Dynamic Feature Interaction Framework for Multi-task Visual Perception [100.98434079696268]
複数の共通認識課題を解決するための効率的な統合フレームワークを考案する。
これらのタスクには、インスタンスセグメンテーション、セマンティックセグメンテーション、モノクル3D検出、深さ推定が含まれる。
提案するフレームワークはD2BNetと呼ばれ,マルチタスク認識のためのパラメータ効率予測に一意なアプローチを示す。
論文 参考訳(メタデータ) (2023-06-08T09:24:46Z) - Influencer Detection with Dynamic Graph Neural Networks [56.1837101824783]
インフルエンサー検出のための動的グラフニューラルネットワーク(GNN)の構成について検討する。
GNNにおける深層多面的注意と時間特性の符号化が性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2022-11-15T13:00:25Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Counting with Adaptive Auxiliary Learning [23.715818463425503]
本稿では,オブジェクトカウント問題に対する適応型補助的タスク学習に基づくアプローチを提案する。
本研究では,タスク共有とタスクカスタマイズの両機能学習を実現するために,アダプティブ・アダプティブ・アダプティブ・共有バックボーンネットワークを開発した。
本手法は,現在最先端のタスク学習に基づくカウント手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-03-08T13:10:17Z) - GCA-Net : Utilizing Gated Context Attention for Improving Image Forgery
Localization and Detection [0.9883261192383611]
本稿では,グローバルな文脈学習に非局所的注意ブロックを利用するGated Context Attention Network (GCA-Net)を提案する。
提案手法は,複数のベンチマークデータセットにおいて,平均4.2%-5.4%のAUCで最先端のネットワークより優れていることを示す。
論文 参考訳(メタデータ) (2021-12-08T14:13:14Z) - X-Distill: Improving Self-Supervised Monocular Depth via Cross-Task
Distillation [69.9604394044652]
そこで本研究では,クロスタスク知識蒸留による単眼深度の自己指導的訓練を改善する手法を提案する。
トレーニングでは,事前訓練されたセマンティックセグメンテーション教師ネットワークを使用し,そのセマンティック知識を深度ネットワークに転送する。
提案手法の有効性をKITTIベンチマークで評価し,最新技術と比較した。
論文 参考訳(メタデータ) (2021-10-24T19:47:14Z) - Object Localization Through a Single Multiple-Model Convolutional Neural
Network with a Specific Training Approach [0.0]
光畳み込みニューラルネットワーク(cnn)に対して,画像に対する関心領域を決定するための特別訓練手法を提案する。
ほぼ全てのCNNベースの検出器は、固定された入力サイズ画像を使用し、様々なオブジェクトサイズを扱う場合、性能が低下する可能性がある。
論文 参考訳(メタデータ) (2021-03-24T16:52:01Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - SOSD-Net: Joint Semantic Object Segmentation and Depth Estimation from
Monocular images [94.36401543589523]
これら2つのタスクの幾何学的関係を利用するための意味的対象性の概念を紹介します。
次に, 対象性仮定に基づくセマンティックオブジェクト・深さ推定ネットワーク(SOSD-Net)を提案する。
私たちの知識を最大限に活用するために、SOSD-Netは同時単眼深度推定とセマンティックセグメンテーションのためのジオメトリ制約を利用する最初のネットワークです。
論文 参考訳(メタデータ) (2021-01-19T02:41:03Z) - Analyzing Visual Representations in Embodied Navigation Tasks [45.35107294831313]
我々は、最近提案されたプロジェクション重み付き正準相関解析(PWCCA)を用いて、異なるタスクを実行することで、同じ環境で学習した視覚的表現の類似度を測定する。
次に、あるタスクで学習した視覚的表現が、別のタスクに効果的に転送できることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-12T19:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。