論文の概要: CellTranspose: Few-shot Domain Adaptation for Cellular Instance
Segmentation
- arxiv url: http://arxiv.org/abs/2212.14121v1
- Date: Wed, 28 Dec 2022 23:00:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 16:31:31.530574
- Title: CellTranspose: Few-shot Domain Adaptation for Cellular Instance
Segmentation
- Title(参考訳): CellTranspose: セルインスタンスセグメンテーションのためのFew-shot Domain Adaptation
- Authors: Matthew Keaton, Ram Zaveri, Gianfranco Doretto
- Abstract要約: 我々は、最小限の新しい注釈付きデータとトレーニング時間を必要とするアプローチを設計する問題に対処する。
我々は、いくつかの注釈付きサンプルを非常に効率的に活用する、特別な対照的な損失を設計する。
- 参考スコア(独自算出の注目度): 4.38301148531795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated cellular instance segmentation is a process utilized for
accelerating biological research for the past two decades, and recent
advancements have produced higher quality results with less effort from the
biologist. Most current endeavors focus on completely cutting the researcher
out of the picture by generating highly generalized models. However, these
models invariably fail when faced with novel data, distributed differently than
the ones used for training. Rather than approaching the problem with methods
that presume the availability of large amounts of target data and computing
power for retraining, in this work we address the even greater challenge of
designing an approach that requires minimal amounts of new annotated data as
well as training time. We do so by designing specialized contrastive losses
that leverage the few annotated samples very efficiently. A large set of
results show that 3 to 5 annotations lead to models with accuracy that: 1)
significantly mitigate the covariate shift effects; 2) matches or surpasses
other adaptation methods; 3) even approaches methods that have been fully
retrained on the target distribution. The adaptation training is only a few
minutes, paving a path towards a balance between model performance, computing
requirements and expert-level annotation needs.
- Abstract(参考訳): 自動細胞インスタンスセグメンテーションは、過去20年間生物研究を加速するために使われてきたプロセスであり、最近の進歩は、生物学者の努力を減らして、より高品質な結果を生み出している。
現在のほとんどの取り組みは、高度に一般化されたモデルを生成することによって、研究者を画像から完全に切り離すことに焦点を当てている。
しかし、これらのモデルは、トレーニングで使用するものとは異なる、新しいデータに直面すると必ず失敗する。
この研究では、大量のターゲットデータと再トレーニングのための計算能力の可用性を前提とした手法にアプローチするのではなく、最小限の新たな注釈付きデータとトレーニング時間を必要とするアプローチを設計するという、さらに大きな課題に対処する。
我々は、いくつかの注釈付きサンプルを非常に効率的に活用する特別な対照的な損失を設計する。
結果の大きなセットは、3から5のアノテーションが正確さでモデルに導かれることを示している。
1) 共変量シフト効果を著しく緩和する。
2) 他の適応方法に適合する又は超越する
3)ターゲット分布で完全に再訓練された手法にさえアプローチする。
適応トレーニングはわずか数分で、モデルのパフォーマンス、コンピューティング要件、エキスパートレベルのアノテーションニーズのバランスへの道を開く。
関連論文リスト
- Source-Free Test-Time Adaptation For Online Surface-Defect Detection [29.69030283193086]
テスト時間適応型表面欠陥検出手法を提案する。
推論中にトレーニング済みのモデルを新しいドメインやクラスに適応させる。
実験では、最先端の技術よりも優れています。
論文 参考訳(メタデータ) (2024-08-18T14:24:05Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Ask Your Distribution Shift if Pre-Training is Right for You [74.18516460467019]
実際に、事前訓練されたモデルの微調整は、いくつかのケースではロバスト性を大幅に改善するが、他のケースではまったく改善しない。
分散シフト中のモデルの2つの障害モード – トレーニングデータの補間不足とバイアス – に注目する。
我々の研究は、親指の規則として、事前学習は、粗悪な外挿を緩和するがデータセットのバイアスを緩和する助けとなることを示唆している。
論文 参考訳(メタデータ) (2024-02-29T23:46:28Z) - Few-shot adaptation for morphology-independent cell instance
segmentation [3.6064695344878093]
我々は、非常に困難なバクテリアデータセットに適応するために、セルインスタンスセグメンテーションモデルを適用する方法を示す。
本研究は, 細菌データセットへの適応により, 精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2024-02-27T02:54:22Z) - Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Robustifying Sentiment Classification by Maximally Exploiting Few
Counterfactuals [16.731183915325584]
そこで本研究では,トレーニングデータの少数のアノテーションのみを必要とする新しい手法を提案する。
また,手作業による正解率を1%に抑えることで,顕著な精度向上を実現した。
論文 参考訳(メタデータ) (2022-10-21T08:30:09Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - Few Is Enough: Task-Augmented Active Meta-Learning for Brain Cell
Classification [8.998976678920236]
本稿では,Deep Neural Networks を新しいタスクに効率的に適応する tAsk-auGmented actIve meta-LEarning (AGILE) 手法を提案する。
AGILEはメタ学習アルゴリズムと,初期適応モデルを生成するための新しいタスク拡張手法を組み合わせる。
提案するタスク強化メタラーニングフレームワークは,1段階の段階を経て,新たな細胞タイプを分類することができることを示す。
論文 参考訳(メタデータ) (2020-07-09T18:03:12Z) - An Efficient Method of Training Small Models for Regression Problems
with Knowledge Distillation [1.433758865948252]
回帰問題に対する知識蒸留の新しい定式化を提案する。
まず,教師モデル予測を用いて,教師モデルを用いた学習サンプルの退学率を下げる新たな損失関数,教師の退学率の減少を提案する。
マルチタスクネットワークを考えることで、学生モデルの特徴抽出の訓練がより効果的になる。
論文 参考訳(メタデータ) (2020-02-28T08:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。