論文の概要: Uncertainty-Guided Selective Adaptation Enables Cross-Platform Predictive Fluorescence Microscopy
- arxiv url: http://arxiv.org/abs/2511.12006v1
- Date: Sat, 15 Nov 2025 03:01:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.501351
- Title: Uncertainty-Guided Selective Adaptation Enables Cross-Platform Predictive Fluorescence Microscopy
- Title(参考訳): 不確かさ誘導選択適応は、クロスプラチブル予測蛍光顕微鏡を可能にする
- Authors: Kai-Wen K. Yang, Andrew Bai, Alexandra Bermudez, Yunqi Hong, Zoe Latham, Iris Sloan, Michael Liu, Vishrut Goyal, Cho-Jui Hsieh, Neil Y. C. Lin,
- Abstract要約: 自動深度選択機能付きサブネットワーク画像翻訳ADDA(SIT-ADDA-Auto)について紹介する。
より深い層を凍結しながら、最も初期の畳み込み層のみを適応させることで、信頼できる転送が得られることを示す。
この結果から,マイクロスコープにおけるラベルなし適応の設計規則とフィールド設定のレシピが提供され,コードが公開されている。
- 参考スコア(独自算出の注目度): 65.15943255667733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning is transforming microscopy, yet models often fail when applied to images from new instruments or acquisition settings. Conventional adversarial domain adaptation (ADDA) retrains entire networks, often disrupting learned semantic representations. Here, we overturn this paradigm by showing that adapting only the earliest convolutional layers, while freezing deeper layers, yields reliable transfer. Building on this principle, we introduce Subnetwork Image Translation ADDA with automatic depth selection (SIT-ADDA-Auto), a self-configuring framework that integrates shallow-layer adversarial alignment with predictive uncertainty to automatically select adaptation depth without target labels. We demonstrate robustness via multi-metric evaluation, blinded expert assessment, and uncertainty-depth ablations. Across exposure and illumination shifts, cross-instrument transfer, and multiple stains, SIT-ADDA improves reconstruction and downstream segmentation over full-encoder adaptation and non-adversarial baselines, with reduced drift of semantic features. Our results provide a design rule for label-free adaptation in microscopy and a recipe for field settings; the code is publicly available.
- Abstract(参考訳): ディープラーニングは顕微鏡を変換するが、新しい楽器や取得設定の画像に適用すると、モデルは失敗することが多い。
従来の敵対的ドメイン適応(ADDA)はネットワーク全体を再訓練し、しばしば学習された意味表現を乱す。
ここでは、このパラダイムを覆して、最初期の畳み込み層のみを適応させる一方で、より深い層を凍結することで、信頼できる転送が得られることを示す。
この原理に基づいて,浅層対向アライメントと予測不確実性を統合し,ターゲットラベルなしで適応深度を自動的に選択する自己設定フレームワークである,自動深度選択機能付きSubnetwork Image Translation ADDA(SIT-ADDA-Auto)を導入する。
マルチメトリック評価,ブラインド専門家評価,不確実性度改善によるロバスト性を示す。
SIT-ADDAは全エンコーダ適応や非対角ベースラインよりも、露出と照明のシフト、クロス・ストラクチャー・トランスファー、多重染色により、再構築と下流セグメンテーションを改善し、セマンティックな特徴のドリフトを減少させる。
この結果から,マイクロスコープにおけるラベルなし適応の設計規則とフィールド設定のレシピが提供され,コードが公開されている。
関連論文リスト
- Decomposing the Neurons: Activation Sparsity via Mixture of Experts for Continual Test Time Adaptation [37.79819260918366]
継続的なテスト時間適応(CTTA)は、トレーニング済みのモデルを進化し続けるターゲットドメインに適応させることを目的としている。
我々はCTTAタスクのアダプタとしてMixture-of-Activation-Sparsity-Experts (MoASE)の統合について検討する。
論文 参考訳(メタデータ) (2024-05-26T08:51:39Z) - Diffusion Model Driven Test-Time Image Adaptation for Robust Skin Lesion Classification [24.08402880603475]
テストデータ上でのモデルの精度を高めるためのテスト時間画像適応手法を提案する。
拡散モデルを用いて、対象の試験画像をソース領域に投影して修正する。
私たちの手法は、さまざまな汚職、アーキテクチャ、データレシエーションにおいて、堅牢性をより堅牢にします。
論文 参考訳(メタデータ) (2024-05-18T13:28:51Z) - RetiFluidNet: A Self-Adaptive and Multi-Attention Deep Convolutional
Network for Retinal OCT Fluid Segmentation [3.57686754209902]
OCTガイド下治療には網膜液の定量化が必要である。
RetiFluidNetと呼ばれる新しい畳み込みニューラルアーキテクチャは、多クラス網膜流体セグメンテーションのために提案されている。
モデルは、テクスチャ、コンテキスト、エッジといった特徴の階層的な表現学習の恩恵を受ける。
論文 参考訳(メタデータ) (2022-09-26T07:18:00Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Self-Organized Variational Autoencoders (Self-VAE) for Learned Image
Compression [12.539504557044653]
より強力な非線形性から恩恵を受けることができる,自己組織型変分オートエンコーダアーキテクチャを提案する。
実験結果から,提案したSelf-VAEは,速度歪み性能と知覚画像品質の両方の改善をもたらすことが示された。
論文 参考訳(メタデータ) (2021-05-25T17:44:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。