論文の概要: From fat droplets to floating forests: cross-domain transfer learning
using a PatchGAN-based segmentation model
- arxiv url: http://arxiv.org/abs/2211.03937v1
- Date: Tue, 8 Nov 2022 01:19:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:35:37.992615
- Title: From fat droplets to floating forests: cross-domain transfer learning
using a PatchGAN-based segmentation model
- Title(参考訳): 脂肪滴から浮遊林へ--PatchGANに基づくセグメンテーションモデルを用いたクロスドメイン移行学習
- Authors: Kameswara Bharadwaj Mantha, Ramanakumar Sankar, Yuping Zheng, Lucy
Fortson, Thomas Pengo, Douglas Mashek, Mark Sanders, Trace Christensen,
Jeffrey Salisbury, Laura Trouille, Jarrett E. K. Byrnes, Isaac Rosenthal,
Henry Houskeeper, Kyle Cavanaugh
- Abstract要約: 本研究では, 2つのZooniverseプロジェクトベースデータセットに生成セグメンテーションモデルを適用し, 衛星画像中の肝細胞およびケルプ層中の脂肪滴を同定する。
FCモデルとCOCO TLモデルの両方が,元のトレーニングサンプルサイズの75%以上を使用する場合,ベースラインモデルよりも優れた性能を示した。
我々の調査は、異なるZooniverseプロジェクト間でホストされているマルチドメインデータに対するTLアプローチの利用に関する重要な洞察を提供する。
- 参考スコア(独自算出の注目度): 5.354391272593161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many scientific domains gather sufficient labels to train machine algorithms
through human-in-the-loop techniques provided by the Zooniverse.org citizen
science platform. As the range of projects, task types and data rates increase,
acceleration of model training is of paramount concern to focus volunteer
effort where most needed. The application of Transfer Learning (TL) between
Zooniverse projects holds promise as a solution. However, understanding the
effectiveness of TL approaches that pretrain on large-scale generic image sets
vs. images with similar characteristics possibly from similar tasks is an open
challenge. We apply a generative segmentation model on two Zooniverse
project-based data sets: (1) to identify fat droplets in liver cells
(FatChecker; FC) and (2) the identification of kelp beds in satellite images
(Floating Forests; FF) through transfer learning from the first project. We
compare and contrast its performance with a TL model based on the COCO image
set, and subsequently with baseline counterparts. We find that both the FC and
COCO TL models perform better than the baseline cases when using >75% of the
original training sample size. The COCO-based TL model generally performs
better than the FC-based one, likely due to its generalized features. Our
investigations provide important insights into usage of TL approaches on
multi-domain data hosted across different Zooniverse projects, enabling future
projects to accelerate task completion.
- Abstract(参考訳): 多くの科学領域は、zooniverse.orgの市民科学プラットフォームが提供するヒューマン・イン・ザ・ループ技術によって機械アルゴリズムを訓練するのに十分なラベルを集めている。
プロジェクトの範囲、タスクタイプ、データレートが増加するにつれ、モデルトレーニングの加速は、最も必要となるボランティア活動に集中する上で最も重要な関心事である。
Zooniverseプロジェクト間のトランスファーラーニング(TL)の適用は、ソリューションとしての可能性を秘めている。
しかし,これと類似した特徴を持つ画像に対して,大規模なジェネリックイメージセットを事前学習するTLアプローチの有効性を理解することは,課題である。
1) 肝臓細胞 (FatChecker, FC) における脂肪滴の同定, (2) 衛星画像 (Floating Forests, FF) におけるケルプ層の同定を, 最初のプロジェクトからの移行学習を通して行う。
我々は,COCO画像集合に基づくTLモデルと比較し,その後,ベースラインモデルと比較した。
FCモデルとCOCO TLモデルの両方が,元のトレーニングサンプルサイズの75%以上を使用する場合,ベースラインモデルよりも優れた性能を示した。
COCOベースのTLモデルは一般的にFCベースのモデルよりも性能が良い。
本研究は,Zooniverseプロジェクト間でホストされているマルチドメインデータに対するTLアプローチの利用に関する重要な知見を提供する。
関連論文リスト
- Multi-Label Plant Species Classification with Self-Supervised Vision Transformers [0.0]
植物CLEF 2024 コンペティションのための自己教師型ビジョントランスフォーマ (DINOv2) を用いた移動学習手法を提案する。
大規模データセットの計算課題に対処するために、分散データ処理にSparkを使用します。
本研究は,複数ラベル画像分類タスクにおいて,転送学習と高度なデータ処理技術を組み合わせることの有効性を示す。
論文 参考訳(メタデータ) (2024-07-08T18:07:33Z) - FreeSeg-Diff: Training-Free Open-Vocabulary Segmentation with Diffusion Models [56.71672127740099]
我々は,閉鎖語彙データセットのトレーニングモデルによって伝統的に解決されるイメージセグメンテーションの課題に焦点をあてる。
我々は、ゼロショットのオープン語彙セグメンテーションのために、異なる、比較的小さなオープンソース基盤モデルを活用している。
当社のアプローチ(別名FreeSeg-Diff)は、トレーニングに依存しないもので、Pascal VOCとCOCOデータセットの両方で多くのトレーニングベースのアプローチより優れています。
論文 参考訳(メタデータ) (2024-03-29T10:38:25Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - High-fidelity Pseudo-labels for Boosting Weakly-Supervised Segmentation [17.804090651425955]
画像レベルの弱い教師付きセグメンテーション(WSSS)は、トレーニング中にセグメンテーションマスクを代理することで、通常膨大なデータアノテーションコストを削減する。
本研究は,GAPの代替となる重要サンプリングと特徴類似性損失という,CAMを改善するための2つの手法に基づく。
複数の独立二項問題の後部二項問題に基づいて両手法を再構成する。
パフォーマンスが向上し、より一般的なものになり、事実上あらゆるWSSSメソッドを増強できるアドオンメソッドが出来上がります。
論文 参考訳(メタデータ) (2023-04-05T17:43:57Z) - A Closer Look at Few-shot Classification Again [68.44963578735877]
トレーニングフェーズと適応フェーズで構成されている。
トレーニングアルゴリズムと適応アルゴリズムが完全に絡み合っていることを実証的に証明する。
各フェーズのメタアナリシスは、いくつかの興味深い洞察を示し、いくつかのショット分類の重要な側面をよりよく理解するのに役立ちます。
論文 参考訳(メタデータ) (2023-01-28T16:42:05Z) - Towards Fine-grained Image Classification with Generative Adversarial
Networks and Facial Landmark Detection [0.0]
GANベースのデータ拡張を使用して、余分なデータセットインスタンスを生成します。
近年の視覚変換器 (ViT) モデルを用いて, きめ細かい画像分類の精度を評価し, 評価を行った。
論文 参考訳(メタデータ) (2021-08-28T06:32:42Z) - Zoo-Tuning: Adaptive Transfer from a Zoo of Models [82.9120546160422]
Zoo-Tuningは、事前訓練されたモデルのパラメータをターゲットタスクに適応的に転送することを学ぶ。
我々は、強化学習、画像分類、顔のランドマーク検出など、様々なタスクに対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-06-29T14:09:45Z) - Few-Shot Learning for Image Classification of Common Flora [0.0]
MAML(Model-Agnostic Meta Learning)を用いた画像分類のためのメタラーニング分野の最先端の研究と、さまざまな最先端のトランスファーラーニングウェイトとアーキテクチャをテストした結果を紹介します。
その結果、データセットが十分に大きい場合、両方のプラクティスが十分なパフォーマンスを提供しますが、十分なパフォーマンスを維持するためにデータスパーシャビリティが導入されると、どちらも苦労しています。
論文 参考訳(メタデータ) (2021-05-07T03:54:51Z) - Learning Invariant Representations across Domains and Tasks [81.30046935430791]
本稿では,この教師なしタスク転送問題を解決するための新しいタスク適応ネットワーク(tan)を提案する。
ドメイン・アドバーサル・トレーニングによる伝達可能な機能を学習することに加えて、学習から学習への戦略を用いてタスクの意味を適応させる新しいタスク・セマンティクス・アダプタを提案する。
TANは最近の強いベースラインに比べてリコールとF1スコアを5.0%と7.8%大きく向上させた。
論文 参考訳(メタデータ) (2021-03-03T11:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。