論文の概要: A Light-weight Interpretable CompositionalNetwork for Nuclei Detection
and Weakly-supervised Segmentation
- arxiv url: http://arxiv.org/abs/2110.13846v1
- Date: Tue, 26 Oct 2021 16:44:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 15:26:05.085340
- Title: A Light-weight Interpretable CompositionalNetwork for Nuclei Detection
and Weakly-supervised Segmentation
- Title(参考訳): 核検出と弱教師付きセグメンテーションのための軽量解釈可能な合成ネットワーク
- Authors: Yixiao Zhang, Adam Kortylewski, Qing Liu, Seyoun Park, Benjamin Green,
Elizabeth Engle, Guillermo Almodovar, Ryan Walk, Sigfredo Soto-Diaz, Janis
Taube, Alex Szalay, and Alan Yuille
- Abstract要約: ディープニューラルネットワークは通常、膨大なパラメータをトレーニングするために大量の注釈付きデータを必要とする。
我々は,特に孤立した核に部分的なアノテーションを必要とするデータ効率モデルを構築することを提案する。
- 参考スコア(独自算出の注目度): 10.196621315018884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of computational pathology has witnessed great advancements since
deep neural networks have been widely applied. These deep neural networks
usually require large numbers of annotated data to train vast parameters.
However, it takes significant effort to annotate a large histopathology
dataset. We propose to build a data-efficient model, which only requires
partial annotation, specifically on isolated nucleus, rather than on the whole
slide image. It exploits shallow features as its backbone and is light-weight,
therefore a small number of data is sufficient for training. What's more, it is
a generative compositional model, which enjoys interpretability in its
prediction. The proposed method could be an alternative solution for the
data-hungry problem of deep learning methods.
- Abstract(参考訳): ディープニューラルネットワークが広く適用されて以来、計算病理学の分野は大きな進歩を遂げている。
これらの深層ニューラルネットワークは通常、膨大なパラメータをトレーニングするために大量の注釈付きデータを必要とする。
しかしながら、大きな病理組織学データセットに注釈をつけるにはかなりの労力を要する。
スライド画像全体ではなく,特に孤立した核に部分的なアノテーションのみを必要とするデータ効率モデルを構築することを提案する。
バックボーンとして浅い特徴を利用し、軽量であるため、少数のデータがトレーニングに十分である。
さらに、それは生成的構成モデルであり、その予測において解釈可能性を楽しむ。
提案手法は,深層学習におけるデータ・ハングリー問題に対する代替手法となる可能性がある。
関連論文リスト
- Residual Random Neural Networks [0.0]
ランダムな重みを持つ単層フィードフォワードニューラルネットワークは、ニューラルネットワークの文献の中で繰り返されるモチーフである。
隠れたニューロンの数がデータサンプルの次元と等しくない場合でも,優れた分類結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-25T22:00:11Z) - Data Augmentations in Deep Weight Spaces [89.45272760013928]
そこで本研究では,Mixup法に基づく新しい拡張手法を提案する。
既存のベンチマークと新しいベンチマークでこれらのテクニックのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2023-11-15T10:43:13Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - An Information-Theoretic Analysis of Compute-Optimal Neural Scaling Laws [24.356906682593532]
大規模ニューラルネットワークにおけるモデルとトレーニングデータセットサイズ間の計算-最適トレードオフについて検討する。
以上の結果から, チンチラの実証分析で裏付けられる線形関係が示唆された。
論文 参考訳(メタデータ) (2022-12-02T18:46:41Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - The Yin-Yang dataset [0.0]
Yin-Yangデータセットは、スパイキングニューラルネットワークにおける生物学的に妥当なエラーバックプロパゲーションとディープラーニングの研究のために開発された。
これは、いくつかの利点を提供することで、古典的なディープラーニングデータセットに代わる役割を果たします。
論文 参考訳(メタデータ) (2021-02-16T15:18:05Z) - A generic ensemble based deep convolutional neural network for
semi-supervised medical image segmentation [7.141405427125369]
深層畳み込みニューラルネットワーク(DCNN)に基づく画像セグメンテーションのための汎用的な半教師付き学習フレームワークを提案する。
本手法は,ラベルなしデータを組み込むことで,完全教師付きモデル学習を超えて大幅に改善することができる。
論文 参考訳(メタデータ) (2020-04-16T23:41:50Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。