論文の概要: Synthetic dual image generation for reduction of labeling efforts in semantic segmentation of micrographs with a customized metric function
- arxiv url: http://arxiv.org/abs/2408.00707v1
- Date: Thu, 1 Aug 2024 16:54:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 19:47:32.138391
- Title: Synthetic dual image generation for reduction of labeling efforts in semantic segmentation of micrographs with a customized metric function
- Title(参考訳): 距離関数をカスタマイズしたマイクログラフのセマンティックセグメンテーションにおけるラベリング工数削減のための合成二重画像生成
- Authors: Matias Oscar Volman Stern, Dominic Hohs, Andreas Jansche, Timo Bernthaler, Gerhard Schneider,
- Abstract要約: 材料分析のためのセマンティックセグメンテーションモデルの訓練には、マイクログラフとそれに対応するマスクが必要である。
マスクと組み合わせた合成微細構造画像の生成による意味的セグメンテーションモデルの改善のためのワークフローを実証する。
このアプローチは、少数の実画像を持つモデルをトレーニングするためのユーザフレンドリなソリューションとして機能するなど、さまざまな種類の画像データに一般化することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training of semantic segmentation models for material analysis requires micrographs and their corresponding masks. It is quite unlikely that perfect masks will be drawn, especially at the edges of objects, and sometimes the amount of data that can be obtained is small, since only a few samples are available. These aspects make it very problematic to train a robust model. We demonstrate a workflow for the improvement of semantic segmentation models of micrographs through the generation of synthetic microstructural images in conjunction with masks. The workflow only requires joining a few micrographs with their respective masks to create the input for a Vector Quantised-Variational AutoEncoder model that includes an embedding space, which is trained such that a generative model (PixelCNN) learns the distribution of each input, transformed into discrete codes, and can be used to sample new codes. The latter will eventually be decoded by VQ-VAE to generate images alongside corresponding masks for semantic segmentation. To evaluate the synthetic data, we have trained U-Net models with different amounts of these synthetic data in conjunction with real data. These models were then evaluated using non-synthetic images only. Additionally, we introduce a customized metric derived from the mean Intersection over Union (mIoU). The proposed metric prevents a few falsely predicted pixels from greatly reducing the value of the mIoU. We have achieved a reduction in sample preparation and acquisition times, as well as the efforts, needed for image processing and labeling tasks, are less when it comes to training semantic segmentation model. The approach could be generalized to various types of image data such that it serves as a user-friendly solution for training models with a small number of real images.
- Abstract(参考訳): 材料分析のためのセマンティックセグメンテーションモデルのトレーニングには、マイクログラフとその対応するマスクが必要である。
完璧なマスクが、特に物体の端で描かれることはありそうにないが、いくつかのサンプルしか入手できないため、取得可能なデータの量は少ないこともある。
これらの側面は、堅牢なモデルをトレーニングすることを非常に問題にします。
マスクを用いた合成微細構造画像の生成により,マイクログラフのセマンティックセグメンテーションモデルの改善のためのワークフローを実証する。
ワークフローは、数枚のマイクログラフとそれぞれのマスクを結合してベクトル量子変数オートエンコーダモデルの入力を作成するだけでよい。埋め込みスペースは、生成モデル(PixelCNN)が各入力の分布を学習し、離散コードに変換し、新しいコードのサンプリングに使用できるように訓練されている。
後者は最終的にVQ-VAEによってデコードされ、セマンティックセグメンテーションのために対応するマスクと一緒に画像を生成する。
合成データを評価するため、実データとともに、これらの合成データの量が異なるU-Netモデルを訓練した。
これらのモデルは、非合成画像のみを用いて評価された。
さらに,mIoU(Intersection over Union)の平均値から派生した,カスタマイズされたメトリックも導入する。
提案手法により,mIoUの値が大幅に低下することを防ぐ。
セマンティックセグメンテーションモデルのトレーニングにおいては,サンプル作成時間と取得時間の短縮,画像処理やラベル付け作業に必要な労力の削減を実現している。
このアプローチは、少数の実画像を持つモデルをトレーニングするためのユーザフレンドリなソリューションとして機能するように、さまざまな種類の画像データに一般化することができる。
関連論文リスト
- Sequential Modeling Enables Scalable Learning for Large Vision Models [120.91839619284431]
本稿では,言語データを用いずにLVM(Large Vision Model)を学習できる新しい逐次モデリング手法を提案する。
我々は、生画像やビデオや注釈付きデータソースを表現できる共通フォーマット「視覚文」を定義した。
論文 参考訳(メタデータ) (2023-12-01T18:59:57Z) - With a Little Help from your own Past: Prototypical Memory Networks for
Image Captioning [47.96387857237473]
我々は、他のトレーニングサンプルを処理しながら得られたアクティベーションに注意を向けるネットワークを考案した。
私たちのメモリは、プロトタイプベクトルの定義を通じて過去のキーと値の分布をモデル化します。
本研究では,エンコーダ・デコーダ変換器の性能を3.7 CIDErポイント向上できることを示す。
論文 参考訳(メタデータ) (2023-08-23T18:53:00Z) - Microscopy Image Segmentation via Point and Shape Regularized Data
Synthesis [9.47802391546853]
合成学習データを用いた顕微鏡画像セグメンテーションのための統一パイプラインを構築した。
本フレームワークは,濃密なラベルを持つ高精度な顕微鏡画像で訓練されたモデルと同等の結果が得られる。
論文 参考訳(メタデータ) (2023-08-18T22:00:53Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - One-Shot Synthesis of Images and Segmentation Masks [28.119303696418882]
画像合成とGAN(Generative Adversarial Network)とのセグメンテーションマスクの併用により,画像データをピクセル単位のアノテーションで収集する作業の削減が期待されている。
高忠実な画像マスク合成を学習するために、既存のGANアプローチは、大量の画像データを必要とする事前学習フェーズを必要とする。
我々は,1ショット方式で生成した画像に正確に整合したセグメンテーションマスクの合成を可能にするOSMISモデルを提案する。
論文 参考訳(メタデータ) (2022-09-15T18:00:55Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Descriptive Modeling of Textiles using FE Simulations and Deep Learning [0.0]
織物の糸の幾何学的特徴を抽出する新しい完全自動化手法を提案する。
提案手法は、2つのディープニューラルネットワークアーキテクチャ(U-NetとMask RCNN)を用いる。
実験の結果,CT画像上で糸のインスタンスセグメンテーションを行う上で,本手法は正確かつ堅牢であることがわかった。
論文 参考訳(メタデータ) (2021-06-26T09:32:24Z) - Autoregressive Unsupervised Image Segmentation [8.894935073145252]
入力から構築した異なるビュー間の相互情報に基づく教師なし画像分割手法を提案する。
提案手法は、教師なし画像セグメント化における最先端技術よりも優れている。
論文 参考訳(メタデータ) (2020-07-16T10:47:40Z) - Set Based Stochastic Subsampling [85.5331107565578]
本稿では,2段階間ニューラルサブサンプリングモデルを提案する。
画像分類,画像再構成,機能再構築,少数ショット分類など,様々なタスクにおいて,低いサブサンプリング率で関連ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-25T07:36:47Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。