論文の概要: CHAMMI: A benchmark for channel-adaptive models in microscopy imaging
- arxiv url: http://arxiv.org/abs/2310.19224v2
- Date: Tue, 16 Jan 2024 18:26:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 20:28:59.369581
- Title: CHAMMI: A benchmark for channel-adaptive models in microscopy imaging
- Title(参考訳): CHAMMI:顕微鏡画像におけるチャネル適応モデルのベンチマーク
- Authors: Zitong Chen, Chau Pham, Siqi Wang, Michael Doron, Nikita Moshkov,
Bryan A. Plummer, Juan C. Caicedo
- Abstract要約: 顕微鏡画像におけるチャネル適応モデルの検討のためのベンチマークを提案する。
チャネル適応モデルにより、領域外タスクをより一般化でき、計算効率が良くなる。
- 参考スコア(独自算出の注目度): 18.220276947512843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most neural networks assume that input images have a fixed number of channels
(three for RGB images). However, there are many settings where the number of
channels may vary, such as microscopy images where the number of channels
changes depending on instruments and experimental goals. Yet, there has not
been a systemic attempt to create and evaluate neural networks that are
invariant to the number and type of channels. As a result, trained models
remain specific to individual studies and are hardly reusable for other
microscopy settings. In this paper, we present a benchmark for investigating
channel-adaptive models in microscopy imaging, which consists of 1) a dataset
of varied-channel single-cell images, and 2) a biologically relevant evaluation
framework. In addition, we adapted several existing techniques to create
channel-adaptive models and compared their performance on this benchmark to
fixed-channel, baseline models. We find that channel-adaptive models can
generalize better to out-of-domain tasks and can be computationally efficient.
We contribute a curated dataset (https://doi.org/10.5281/zenodo.7988357) and an
evaluation API (https://github.com/broadinstitute/MorphEm.git) to facilitate
objective comparisons in future research and applications.
- Abstract(参考訳): ほとんどのニューラルネットワークは、入力画像が一定数のチャンネルを持つと仮定している(rgb画像では3つ)。
しかし、機器や実験目標に応じてチャンネルの数が変化する顕微鏡画像など、チャンネルの数が変化する可能性のある設定が多数存在する。
しかし、チャネルの数や種類に不変なニューラルネットワークを作成して評価するシステム的な試みは行われていない。
結果として、訓練されたモデルは個々の研究に固有のままであり、他の顕微鏡設定ではほとんど再利用できない。
本稿では,顕微鏡画像におけるチャネル適応モデルの検討のためのベンチマークを提案する。
1) 可変チャネル単細胞画像のデータセット、及び
2)生物学的に関連する評価枠組み。
さらに,複数の既存手法を用いてチャネル適応モデルを作成し,このベンチマークの性能を固定チャネルベースラインモデルと比較した。
チャネル適応モデルがドメイン外のタスクをより一般化し、計算効率が向上できることが分かりました。
キュレートされたデータセット(https://doi.org/10.5281/zenodo.7988357)と評価API(https://github.com/broadinstitute/MorphEm.git)をコントリビュートして、将来の研究や応用における客観的比較を容易にする。
関連論文リスト
- ChAda-ViT : Channel Adaptive Attention for Joint Representation Learning of Heterogeneous Microscopy Images [2.954116522244175]
本稿では,Channel Adaptive Vision TransformerアーキテクチャであるChAda-ViTを提案する。
IDRCell100kは7つの顕微鏡モダリティを網羅した79の実験を多用したバイオイメージデータセットである。
我々のアーキテクチャは、自己管理的な方法で訓練され、いくつかの生物学的に関連する下流タスクにおいて、既存のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-11-26T10:38:47Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Scale-Equivariant UNet for Histopathology Image Segmentation [1.213915839836187]
畳み込みニューラルネットワーク(CNN)は、特定のスケールでそのような画像で訓練されたが、異なるスケールのものに一般化することができない。
本稿では,スケール空間理論に基づく画像分割のためのスケール・エクイバティブUNet(SEUNet)を提案する。
論文 参考訳(メタデータ) (2023-04-10T14:03:08Z) - ConvTransSeg: A Multi-resolution Convolution-Transformer Network for
Medical Image Segmentation [14.485482467748113]
ハイブリッドエンコーダ/デコーダセグメンテーションモデル(ConvTransSeg)を提案する。
特徴学習用エンコーダとして多層CNNと,セグメンテーション予測用デコーダとして対応する多層トランスフォーマーから構成される。
本手法は,モデル複雑度とメモリ消費率の低いDice係数と平均対称表面距離の測定値で最高の性能を実現する。
論文 参考訳(メタデータ) (2022-10-13T14:59:23Z) - Stacking Ensemble Learning in Deep Domain Adaptation for Ophthalmic
Image Classification [61.656149405657246]
ドメイン適応は、十分なラベルデータを取得することが困難な画像分類タスクに有効である。
本稿では,3つのドメイン適応手法を拡張することで,アンサンブル学習を積み重ねるための新しい手法SELDAを提案する。
Age-Related Eye Disease Study (AREDS)ベンチマーク眼科データセットを用いた実験結果から,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2022-09-27T14:19:00Z) - ViViT: A Video Vision Transformer [75.74690759089529]
ビデオ分類にpure-transformerベースのモデルを提案する。
本モデルでは,入力ビデオから時間トークンを抽出し,一連のトランスフォーマー層で符号化する。
トレーニング中にモデルを効果的に正規化し、トレーニング済みの画像モデルを利用して比較的小さなデータセットでトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-03-29T15:27:17Z) - End-to-end learnable EEG channel selection with deep neural networks [72.21556656008156]
本稿では,脳波チャネル選択をニューラルネットワーク自体に組み込む枠組みを提案する。
我々は、離散チャネル選択パラメータの連続緩和を用いて、この新しい最適化問題の離散的性質を扱う。
この一般的なアプローチは、2つの異なるEEGタスクで評価される。
論文 参考訳(メタデータ) (2021-02-11T13:44:07Z) - Comparisons among different stochastic selection of activation layers
for convolutional neural networks for healthcare [77.99636165307996]
ニューラルネットワークのアンサンブルを用いて生体医用画像の分類を行う。
ReLU, leaky ReLU, Parametric ReLU, ELU, Adaptive Piecewice Linear Unit, S-Shaped ReLU, Swish, Mish, Mexican Linear Unit, Parametric Deformable Linear Unit, Soft Root Sign。
論文 参考訳(メタデータ) (2020-11-24T01:53:39Z) - Robust Retinal Vessel Segmentation from a Data Augmentation Perspective [14.768009562830004]
本稿では,チャネルワイドなガンマ補正とチャネルワイドなランダムな血管拡張という2つの新しいデータ拡張モジュールを提案する。
これら2つのモジュールを逐次適用することによって生成された追加のトレーニングサンプルによって、モデルはより不変かつ識別的な特徴を学ぶことができる。
実世界のデータセットと合成データセットの両方の実験結果から,従来の畳み込みニューラルネットワークアーキテクチャの性能と堅牢性の向上が実証された。
論文 参考訳(メタデータ) (2020-07-31T07:37:14Z) - Improving Calibration and Out-of-Distribution Detection in Medical Image
Segmentation with Convolutional Neural Networks [8.219843232619551]
畳み込みニューラルネットワーク(CNN)は強力な医用画像分割モデルであることが示されている。
マルチタスク学習、すなわち、複数の異なるデータセット上で単一のモデルをトレーニングすることを提唱する。
一つのCNNが、文脈を自動的に認識し、各文脈における関心の組織を正確に区分することを学ぶだけでなく、そのようなジョイントモデルの方が、より正確でより良い校正された予測を持つことも示している。
論文 参考訳(メタデータ) (2020-04-12T23:42:51Z) - Channel Interaction Networks for Fine-Grained Image Categorization [61.095320862647476]
微妙なクラス間差のため、きめ細かい画像分類は困難である。
本稿では,チャネル・インタラクション・ネットワーク(CIN)を提案する。
我々のモデルは、多段階のトレーニングやテストを必要とせずに、エンドツーエンドで効率的にトレーニングすることができる。
論文 参考訳(メタデータ) (2020-03-11T11:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。