論文の概要: Fit Pixels, Get Labels: Meta-learned Implicit Networks for Image Segmentation
- arxiv url: http://arxiv.org/abs/2510.04021v1
- Date: Sun, 05 Oct 2025 04:03:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.402823
- Title: Fit Pixels, Get Labels: Meta-learned Implicit Networks for Image Segmentation
- Title(参考訳): Fit Pixels, Get Labels:画像セグメンテーションのためのメタ学習インプリシットネットワーク
- Authors: Kushal Vyas, Ashok Veeraraghavan, Guha Balakrishnan,
- Abstract要約: 入射神経表現(INR)は、表現的だがコンパクトな信号表現の学習において顕著な成功を収めた。
医用画像セグメンテーションのためのINRをトレーニングするためのメタ学習フレームワークであるMetaSegを紹介する。
- 参考スコア(独自算出の注目度): 23.491935575144385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit neural representations (INRs) have achieved remarkable successes in learning expressive yet compact signal representations. However, they are not naturally amenable to predictive tasks such as segmentation, where they must learn semantic structures over a distribution of signals. In this study, we introduce MetaSeg, a meta-learning framework to train INRs for medical image segmentation. MetaSeg uses an underlying INR that simultaneously predicts per pixel intensity values and class labels. It then uses a meta-learning procedure to find optimal initial parameters for this INR over a training dataset of images and segmentation maps, such that the INR can simply be fine-tuned to fit pixels of an unseen test image, and automatically decode its class labels. We evaluated MetaSeg on 2D and 3D brain MRI segmentation tasks and report Dice scores comparable to commonly used U-Net models, but with $90\%$ fewer parameters. MetaSeg offers a fresh, scalable alternative to traditional resource-heavy architectures such as U-Nets and vision transformers for medical image segmentation. Our project is available at https://kushalvyas.github.io/metaseg.html .
- Abstract(参考訳): 入射神経表現(INR)は、表現的だがコンパクトな信号表現の学習において顕著な成功を収めた。
しかし、信号の分布に関する意味構造を学習しなければならないセグメンテーションのような予測的なタスクには自然に対応できない。
本研究では,医療画像セグメンテーションのためのINRを学習するためのメタ学習フレームワークであるMetaSegを紹介する。
MetaSegは、下層のINRを使用して、ピクセルの強度値とクラスラベルを同時に予測する。
次に、メタラーニング手順を使用して、画像とセグメンテーションマップのトレーニングデータセット上で、このINRの最適な初期パラメータを見つける。
2次元および3次元脳MRIのセグメンテーションタスクでMetaSegを評価し,一般的なU-Netモデルに匹敵するDiceスコアを報告した。
MetaSegは、U-Netsや医療画像セグメンテーションのためのビジョントランスフォーマーといった、従来のリソース集約アーキテクチャに代わる、新しくスケーラブルな代替手段を提供する。
私たちのプロジェクトはhttps://kushalvyas.github.io/metaseg.htmlで公開されています。
関連論文リスト
- GraphDerm: Fusing Imaging, Physical Scale, and Metadata in a Population-Graph Classifier for Dermoscopic Lesions [0.30661374053736157]
画像、ミリスケールキャリブレーション、分類のためのメタデータを融合した幾何学グラフフレームワークであるGraphDermを提案する。
我々は、病変と定規セグメンテーションのためにU-Netをトレーニングし、病変マスクからリアルタイムな記述子を計算する。
グラフは AUC 0.9812 に達し、AUC 0.9788 (画像のみのベースラインは 0.9440 ) のエッジの約25%をしきい値で保存し、クラスごとの到達範囲は 0.97-0.99 である。
論文 参考訳(メタデータ) (2025-09-14T08:11:54Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Unsupervised Cross-Modality Domain Adaptation for Segmenting Vestibular
Schwannoma and Cochlea with Data Augmentation and Model Ensemble [4.942327155020771]
本稿では,前庭神経新生と子牛を識別する教師なし学習フレームワークを提案する。
本フレームワークは,T1強調MRI(ceT1-w)とそのラベルからの情報を活用し,対象領域にラベルが存在しないT2強調MRIのセグメンテーションを生成する。
提案手法は,VS と cochlea のそれぞれの平均値 0.7930 と 0.7432 で,有望なセグメンテーションの構築と生成が容易である。
論文 参考訳(メタデータ) (2021-09-24T20:10:05Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Modeling the Probabilistic Distribution of Unlabeled Data forOne-shot
Medical Image Segmentation [40.41161371507547]
我々は1ショットの脳磁気共鳴画像(MRI)画像分割のためのデータ拡張法を開発した。
提案手法は,MRI画像1枚(atlas)とラベルなし画像数枚のみを利用する。
本手法は最先端のワンショット医療セグメンテーション法より優れている。
論文 参考訳(メタデータ) (2021-02-03T12:28:04Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Meta Corrupted Pixels Mining for Medical Image Segmentation [30.140008860735062]
医用画像のセグメンテーションでは、正確なピクセルレベルのアノテーションを取得するのは非常に困難で費用がかかる。
本稿では,メタマスクネットワークに基づく新しいMeta Corrupted Pixels Mining (MCPM)法を提案する。
本手法は,分割ネットワーク学習における各画素の重要性を評価するために,重み付けマップを自動的に推定することを目的としている。
論文 参考訳(メタデータ) (2020-07-07T15:12:20Z) - RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training [77.62171090230986]
本稿では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理の容易な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
提案したHNラベルによる自己教師付き事前学習が,ImageNetの事前学習にどのように応用できるかを示す。
論文 参考訳(メタデータ) (2020-02-06T11:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。