論文の概要: Novel transfer learning schemes based on Siamese networks and synthetic
data
- arxiv url: http://arxiv.org/abs/2211.11308v2
- Date: Tue, 22 Nov 2022 13:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 16:05:24.803391
- Title: Novel transfer learning schemes based on Siamese networks and synthetic
data
- Title(参考訳): siameseネットワークと合成データに基づく新しい転送学習方式
- Authors: Dominik Stallmann and Philip Kenneweg and Barbara Hammer
- Abstract要約: ディープネットワークに基づくトランスファーラーニングスキームは、コンピュータビジョンの最先端技術を提供する。
このようなアプリケーションは現在、適切なディープ・ネットワーク・モデルを簡単に利用できるアプリケーション・ドメインに限られている。
本稿では,最近導入されたTwin-VAEアーキテクチャを拡張したトランスファー学習手法を提案する。
- 参考スコア(独自算出の注目度): 6.883906273999368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer learning schemes based on deep networks which have been trained on
huge image corpora offer state-of-the-art technologies in computer vision.
Here, supervised and semi-supervised approaches constitute efficient
technologies which work well with comparably small data sets. Yet, such
applications are currently restricted to application domains where suitable
deepnetwork models are readily available. In this contribution, we address an
important application area in the domain of biotechnology, the automatic
analysis of CHO-K1 suspension growth in microfluidic single-cell cultivation,
where data characteristics are very dissimilar to existing domains and trained
deep networks cannot easily be adapted by classical transfer learning. We
propose a novel transfer learning scheme which expands a recently introduced
Twin-VAE architecture, which is trained on realistic and synthetic data, and we
modify its specialized training procedure to the transfer learning domain. In
the specific domain, often only few to no labels exist and annotations are
costly. We investigate a novel transfer learning strategy, which incorporates a
simultaneous retraining on natural and synthetic data using an invariant shared
representation as well as suitable target variables, while it learns to handle
unseen data from a different microscopy tech nology. We show the superiority of
the variation of our Twin-VAE architecture over the state-of-the-art transfer
learning methodology in image processing as well as classical image processing
technologies, which persists, even with strongly shortened training times and
leads to satisfactory results in this domain. The source code is available at
https://github.com/dstallmann/transfer_learning_twinvae, works cross-platform,
is open-source and free (MIT licensed) software. We make the data sets
available at https://pub.uni-bielefeld.de/record/2960030.
- Abstract(参考訳): 巨大な画像コーパスでトレーニングされたディープネットワークに基づく転送学習スキームは、コンピュータビジョンにおける最先端の技術を提供する。
ここで、教師付きおよび半教師付きアプローチは、比較可能な小さなデータセットでうまく機能する効率的な技術を構成する。
しかし、これらのアプリケーションは現在、適切なディープネットワークモデルが利用できるアプリケーションドメインに限定されている。
本稿では,マイクロ流体単一細胞培養におけるCHO-K1サスペンション成長の自動解析によるバイオテクノロジー分野における重要な応用分野について述べる。
本稿では,最近導入されたツインベイアーキテクチャを,現実的な合成データに基づいて学習し,その専門的な学習手順をトランスファー学習領域に変更する,新しいトランスファー学習方式を提案する。
特定のドメインでは、ラベルがほとんど存在せず、アノテーションはコストがかかることが多い。
本研究では,不変共有表現と適切な目標変数を用いて自然データと合成データを同時にリトレーニングし,異なる顕微鏡技術ノロジーから未知のデータを扱うことを学ぶ新しいトランスファー学習戦略について検討する。
画像処理における最先端の伝達学習手法と従来の画像処理技術に比較して,我々のTwin-VAEアーキテクチャの多様性が優れていることを示す。
ソースコードはhttps://github.com/dstallmann/transfer_learning_twinvaeで公開されている。
データセットはhttps://pub.uni-bielefeld.de/record/2960030で利用可能です。
関連論文リスト
- Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - ProCST: Boosting Semantic Segmentation using Progressive Cyclic
Style-Transfer [38.03127458140549]
ドメイン適応技術を改善するための新しい2段階フレームワークを提案する。
最初のステップでは、複数のスケールのニューラルネットワークを段階的にトレーニングし、ソースデータからターゲットデータへの初期転送を行う。
この新たなデータは、所望のターゲットドメインとのドメインギャップを減らし、適用されたUDAアプローチにより、さらにギャップを埋める。
論文 参考訳(メタデータ) (2022-04-25T18:01:05Z) - Self-Supervised Graph Neural Network for Multi-Source Domain Adaptation [51.21190751266442]
ドメイン適応(DA)は、テストデータがトレーニングデータの同じ分布に完全に従わない場合に、シナリオに取り組む。
大規模未ラベルサンプルから学習することで、自己教師型学習がディープラーニングの新しいトレンドとなっている。
我々は,より効果的なタスク間情報交換と知識共有を実現するために,新しい textbfSelf-textbf Supervised textbfGraph Neural Network (SSG) を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:56Z) - DAFormer: Improving Network Architectures and Training Strategies for
Domain-Adaptive Semantic Segmentation [99.88539409432916]
教師なしドメイン適応(UDA)プロセスについて検討する。
ベンチマーク結果に基づいて,新しい UDA 手法である DAFormer を提案する。
DAFormerは,GTA->Cityscapesの10.8 mIoU,Synthia->Cityscapesの5.4 mIoUにより,最先端の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-29T19:00:46Z) - Unsupervised Cross-Domain Prerequisite Chain Learning using Variational
Graph Autoencoders [2.735701323590668]
最適化された変動グラフオートエンコーダを用いて,教師なしのクロスドメイン概念前提チェーン学習を提案する。
私たちのモデルは、情報豊富なドメインから情報貧弱ドメインに概念前提条件関係を転送することを学びます。
また、CVとバイオインフォマティクスという2つの新しいドメインを導入することで、既存のデータセットを拡張します。
論文 参考訳(メタデータ) (2021-05-07T21:02:41Z) - Flexible deep transfer learning by separate feature embeddings and
manifold alignment [0.0]
オブジェクト認識は、業界と防衛において重要な存在である。
残念ながら、既存のラベル付きデータセットでトレーニングされたアルゴリズムは、データ分布が一致しないため、直接新しいデータに一般化しない。
本稿では,各領域の特徴抽出を個別に学習することで,この制限を克服する新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-22T19:24:44Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - CrossTransformers: spatially-aware few-shot transfer [92.33252608837947]
非常に少ないデータを持つ新しいタスクを考えると、現代の視覚システムは驚くほど急速に低下する。
現代の視覚システムを支えるニューラルネットワーク表現が、どのようにして監督の崩壊にさらされているかを示す。
そこで我々は,伝達を良くする汎用的な機能を促進するために,自己指導型学習を提案する。
論文 参考訳(メタデータ) (2020-07-22T15:37:08Z) - Exploring the Efficacy of Transfer Learning in Mining Image-Based
Software Artifacts [1.5285292154680243]
トランスファーラーニングにより、利用可能なデータの量に制限があっても、大量の学習パラメータを必要とするディープアーキテクチャをトレーニングすることができます。
本稿では,ソフトウェア図の分類問題に適用した非ソフトウェア工学データに基づいて事前学習したモデルを用いたトランスファーラーニングの適用可能性について検討する。
論文 参考訳(メタデータ) (2020-03-03T16:41:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。