論文の概要: Self-supervised U-net for few-shot learning of object segmentation in
microscopy images
- arxiv url: http://arxiv.org/abs/2205.10840v1
- Date: Sun, 22 May 2022 14:54:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 15:57:24.450958
- Title: Self-supervised U-net for few-shot learning of object segmentation in
microscopy images
- Title(参考訳): 顕微鏡画像におけるオブジェクトセグメンテーションの少数ショット学習のための自己教師型U-net
- Authors: Arnaud Deleruyelle, Cristian Versari, John Klein
- Abstract要約: セルフスーパービジョンは、少数のショットで訓練されたモデルの一般化性能を著しく向上させることが証明されている。
本稿では、顕微鏡画像分割の文脈において、そのような神経パイプラインを1つ紹介する。
- 参考スコア(独自算出の注目度): 4.125187280299247
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: State-of-the-art segmentation performances are achieved by deep neural
networks. Training these networks from only a few training examples is
challenging while producing annotated images that provide supervision is
tedious. Recently, self-supervision, i.e. designing a neural pipeline providing
synthetic or indirect supervision, has proved to significantly increase
generalization performances of models trained on few shots. This paper
introduces one such neural pipeline in the context of microscopic image
segmentation. By leveraging the rather simple content of these images a trainee
network can be mentored by a referee network which has been previously trained
on synthetically generated pairs of corrupted/correct region masks.
- Abstract(参考訳): 最先端のセグメンテーション性能はディープニューラルネットワークによって達成される。
少数のトレーニング例からこれらのネットワークをトレーニングすることは難しいが、監視を提供する注釈付きイメージを作成するのは面倒だ。
近年、合成または間接的な監視を提供するニューラルパイプラインを設計するセルフスーパービジョンは、少数のショットで訓練されたモデルの一般化性能を著しく向上させることが証明されている。
本稿では,このようなニューラルネットワークのパイプラインを,顕微鏡画像分割の文脈で紹介する。
これらの画像の比較的単純な内容を活用することで、以前に合成生成された腐敗/修正領域マスクのペアでトレーニングされた審判ネットワークによって、訓練者ネットワークを指導することができる。
関連論文リスト
- Efficient Visualization of Neural Networks with Generative Models and Adversarial Perturbations [0.0]
本稿では,既存の手法を改良した生成ネットワークによるディープビジュアライゼーション手法を提案する。
我々のモデルは、使用するネットワーク数を減らし、ジェネレータと識別器のみを必要とすることにより、アーキテクチャを単純化する。
我々のモデルは、事前の訓練知識を少なくし、差別者がガイドとして機能する非敵的訓練プロセスを使用する。
論文 参考訳(メタデータ) (2024-09-20T14:59:25Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Adversarially robust segmentation models learn perceptually-aligned
gradients [0.0]
逆学習されたセマンティックセグメンテーションネットワークを用いて画像のインペイントと生成を行うことができることを示す。
知覚的に整合した勾配は、ニューラルネットワークの学習された表現をよりよく理解し、ニューラルネットワークをより解釈しやすいものにする助けとなる、と我々は主張する。
論文 参考訳(メタデータ) (2022-04-03T16:04:52Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - Aesthetics and neural network image representations [0.0]
我々は,BigGANアーキテクチャの生成ニューラルネットワークによって符号化された画像の空間を解析する。
ニューラルネットワークパラメータをフォトリアリスティックな点から遠ざかる一般的な乗法的摂動は、しばしば対応するオブジェクトの「芸術的回帰」として現れる画像を生成する。
論文 参考訳(メタデータ) (2021-09-16T16:50:22Z) - Towards robust vision by multi-task learning on monkey visual cortex [6.9014416935919565]
我々は,深部ネットワークを併用して画像分類を行い,マカク一次視覚野(V1)の神経活動を予測する訓練を行った。
その結果,モンキーV1データによるコトレーニングは,トレーニング中に歪みがないにもかかわらず,ロバスト性の向上につながることがわかった。
また、ネットワークの堅牢性が向上するにつれて、ネットワークの表現がより脳に似たものになることを示した。
論文 参考訳(メタデータ) (2021-07-29T21:55:48Z) - aura-net : robust segmentation of phase-contrast microscopy images with
few annotations [2.1574781022415364]
AURA-netは位相コントラスト顕微鏡画像の分割のための畳み込みニューラルネットワーク(CNN)である。
AURA-netは、いくつかの小さな(100倍未満)データセットにおいて最先端の代替品よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-02T08:47:14Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。