論文の概要: LESEN: Label-Efficient deep learning for Multi-parametric MRI-based
Visual Pathway Segmentation
- arxiv url: http://arxiv.org/abs/2401.01654v1
- Date: Wed, 3 Jan 2024 10:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 14:20:37.251625
- Title: LESEN: Label-Efficient deep learning for Multi-parametric MRI-based
Visual Pathway Segmentation
- Title(参考訳): LESEN:多パラメータMRIを用いた視覚経路分割のためのラベル効率の良い深層学習
- Authors: Alou Diakite (1 and 2), Cheng Li (1), Lei Xie (3), Yuanjing Feng (3),
Hua Han (1 and 2), Shanshan Wang (1 and 4) ( (1) Paul C. Lauterbur Research
Center for Biomedical Imaging, Shenzhen Institute of Advanced Technology,
Chinese Academy of Sciences, Shenzhen, China, (2) University of Chinese
Academy of Sciences, Beijing, China, (3) Zhejiang University of Technology,
Hangzhou, China, (4) Peng Cheng Laboratory, Shenzhen, China)
- Abstract要約: ラベル効率のよい自己認識型深層学習法(LESEN)を提案する。
LESENは教師なしと教師なしの損失を取り入れ、生徒と教師のモデルが相互に学習できるようにする。
ヒトコネクトームプロジェクト(HCP)のデータセットを用いた実験により,本手法の優れた性能が示された。
- 参考スコア(独自算出の注目度): 5.726588626363204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has shown the potential of deep learning in multi-parametric
MRI-based visual pathway (VP) segmentation. However, obtaining labeled data for
training is laborious and time-consuming. Therefore, it is crucial to develop
effective algorithms in situations with limited labeled samples. In this work,
we propose a label-efficient deep learning method with self-ensembling (LESEN).
LESEN incorporates supervised and unsupervised losses, enabling the student and
teacher models to mutually learn from each other, forming a self-ensembling
mean teacher framework. Additionally, we introduce a reliable unlabeled sample
selection (RUSS) mechanism to further enhance LESEN's effectiveness. Our
experiments on the human connectome project (HCP) dataset demonstrate the
superior performance of our method when compared to state-of-the-art
techniques, advancing multimodal VP segmentation for comprehensive analysis in
clinical and research settings. The implementation code will be available at:
https://github.com/aldiak/Semi-Supervised-Multimodal-Visual-Pathway-
Delineation.
- Abstract(参考訳): 最近の研究では、多パラメータMRIに基づく視覚経路(VP)セグメンテーションにおける深層学習の可能性が示されている。
しかし、トレーニングのためのラベル付きデータを取得するのは手間と時間を要する。
そのため,ラベル付きサンプルを限定した状況下で有効なアルゴリズムを開発することが重要である。
本研究では,ラベル効率の高い自己認識型ディープラーニング(LESEN)を提案する。
LESENは教師なしと教師なしの損失を取り入れ、生徒と教師のモデルが相互に学び合い、自己理解的な教師の枠組みを形成する。
さらに,LESENの有効性をさらに高めるために,信頼性な未ラベルサンプル選択(RUSS)機構を導入する。
ヒトコネクトーム・プロジェクト(HCP)のデータセットを用いた実験は、最先端技術と比較して、臨床および研究環境における総合的な分析のための多モードVPセグメンテーションを推し進めた。
実装コードは以下の通りである。 https://github.com/aldiak/Semi-Supervised-Multimodal-Visual-PathwayDelineation。
関連論文リスト
- Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - JSSL: Joint Supervised and Self-supervised Learning for MRI
Reconstruction [7.043932618116216]
JSSL(Joint Supervised and Self-supervised Learning)は、ディープラーニングに基づくMRI再構成アルゴリズムのための新しいトレーニング手法である。
本研究は,従来の自己指導型訓練法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2023-11-27T14:23:36Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Reinforcement Learning Based Multi-modal Feature Fusion Network for
Novel Class Discovery [47.28191501836041]
本稿では,人間の認知過程をシミュレートするために強化学習フレームワークを用いる。
また,マルチモーダル情報から特徴を抽出・融合するマルチエージェントフレームワークをデプロイした。
我々は、OS-MN40、OS-MN40-Miss、Cifar10データセットを用いて、3Dドメインと2Dドメインの両方でのアプローチの性能を示す。
論文 参考訳(メタデータ) (2023-08-26T07:55:32Z) - M-VAAL: Multimodal Variational Adversarial Active Learning for
Downstream Medical Image Analysis Tasks [16.85572580186212]
アクティブラーニングは、アノテーションの最も有益な例を積極的にサンプリングすることで、大きな注釈付きサンプルの必要性を最小化しようとする。
本稿では,付加的なモーダルからの補助情報を用いてアクティブサンプリングを強化するマルチモーダル変分適応型アクティブラーニング(M-VAAL)手法を提案する。
論文 参考訳(メタデータ) (2023-06-21T16:40:37Z) - DSAL: Deeply Supervised Active Learning from Strong and Weak Labelers
for Biomedical Image Segmentation [13.707848142719424]
アクティブ学習とセミスーパーバイザー学習戦略を組み合わせた深層アクティブセミスーパーバイザー学習フレームワークDSALを提案します。
DSALでは, 深層監視機構に基づく新たな基準が提案され, 高い不確実性を有する情報サンプルを選定する。
提案した基準を用いて,強ラベルと弱ラベルのサンプルを選択し,各アクティブな学習イテレーションにおいて,オラクルラベルと擬似ラベルを同時に生成する。
論文 参考訳(メタデータ) (2021-01-22T11:31:33Z) - Towards Robust Partially Supervised Multi-Structure Medical Image
Segmentation on Small-Scale Data [123.03252888189546]
データ不足下における部分教師付き学習(PSL)における方法論的ギャップを埋めるために,不確実性下でのビシナルラベル(VLUU)を提案する。
マルチタスク学習とヴィジナルリスク最小化によって動機づけられたVLUUは、ビジナルラベルを生成することによって、部分的に教師付き問題を完全な教師付き問題に変換する。
本研究は,ラベル効率の高い深層学習における新たな研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-11-28T16:31:00Z) - Deep Representational Similarity Learning for analyzing neural
signatures in task-based fMRI dataset [81.02949933048332]
本稿では、表現類似度分析(RSA)の深部拡張であるDRSL(Deep Representational similarity Learning)を開発する。
DRSLは、多数の被験者を持つfMRIデータセットにおける様々な認知タスク間の類似性を分析するのに適している。
論文 参考訳(メタデータ) (2020-09-28T18:30:14Z) - Deep Active Learning by Model Interpretability [7.3461534048332275]
本稿では, 線形分離可能なサンプル領域について, アクティブラーニングの課題について紹介する。
モデル解釈可能性(DAMI)を用いた新しい深層能動学習手法を提案する。
ラベルなしデータ全体の最大代表性を維持するため、DAMIは異なる線形分離可能な領域のサンプルを選択してラベル付けしようとする。
論文 参考訳(メタデータ) (2020-07-23T16:06:27Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z) - DiVA: Diverse Visual Feature Aggregation for Deep Metric Learning [83.48587570246231]
視覚的類似性は多くのコンピュータビジョンアプリケーションにおいて重要な役割を果たす。
ディープ・メトリック・ラーニング(DML)は、そのような類似性を学ぶための強力なフレームワークである。
我々は,概念的に異なるデータ関係を対象とする複数の補完学習タスクを提案し,研究する。
我々は、訓練信号を集約する単一モデルを学び、その結果、強力な一般化と最先端のパフォーマンスが得られる。
論文 参考訳(メタデータ) (2020-04-28T12:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。