論文の概要: Encoder-decoder semantic segmentation models for electroluminescence
images of thin-film photovoltaic modules
- arxiv url: http://arxiv.org/abs/2010.07556v1
- Date: Thu, 15 Oct 2020 07:09:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:02:31.136937
- Title: Encoder-decoder semantic segmentation models for electroluminescence
images of thin-film photovoltaic modules
- Title(参考訳): 薄膜太陽電池モジュールのエレクトロルミネッセンス画像に対するエンコーダ・デコーダセマンティックセグメンテーションモデル
- Authors: Evgenii Sovetkin and Elbert Jan Achterberg and Thomas Weber, and Bart
E. Pieters
- Abstract要約: エンコーダ・デコーダ深層ニューラルネットワークアーキテクチャを用いて薄膜モジュールのEL画像のセマンティックセグメンテーションを行う。
これらのネットワークは、Indium Gallium Diselenide(CIGS)薄膜モジュールの6000 EL画像を持つデータベースからのサンプル画像に基づいて、トレーニングされ、テストされる。
- 参考スコア(独自算出の注目度): 2.2749157557381245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a series of image segmentation methods based on the deep neural
networks in order to perform semantic segmentation of electroluminescence (EL)
images of thin-film modules. We utilize the encoder-decoder deep neural network
architecture. The framework is general such that it can easily be extended to
other types of images (e.g. thermography) or solar cell technologies (e.g.
crystalline silicon modules). The networks are trained and tested on a sample
of images from a database with 6000 EL images of Copper Indium Gallium
Diselenide (CIGS) thin film modules. We selected two types of features to
extract, shunts and so called "droplets". The latter feature is often observed
in the set of images. Several models are tested using various combinations of
encoder-decoder layers, and a procedure is proposed to select the best model.
We show exemplary results with the best selected model. Furthermore, we applied
the best model to the full set of 6000 images and demonstrate that the
automated segmentation of EL images can reveal many subtle features which
cannot be inferred from studying a small sample of images. We believe these
features can contribute to process optimization and quality control.
- Abstract(参考訳): 本研究では,薄膜モジュールのel画像のセマンティックセグメンテーションを行うために,ディープニューラルネットワークに基づく一連の画像セグメンテーション手法を検討する。
エンコーダ-デコーダディープニューラルネットワークアーキテクチャを利用する。
この枠組みは、他の種類の画像(例えば、サーモグラフィ)や太陽電池技術(例えば、結晶シリコンモジュール)に容易に拡張できるように一般的である。
これらのネットワークは、シセレン化銅インジウム(cigs)薄膜モジュールの6000個のel画像を持つデータベースからの画像のサンプルを訓練し、テストする。
我々は2種類の特徴を抽出し,シャント,いわゆる「ドロップレット」を抽出した。
後者の特徴はしばしば画像群で観察される。
いくつかのモデルをエンコーダ-デコーダ層の組み合わせを用いてテストし、最適なモデルを選択する手順を提案する。
最適選択モデルを用いて模範的な結果を示す。
さらに, 最良モデルを6000枚の画像の全集合に適用し, EL画像の自動分割により, 画像の小さなサンプルから推定できない微妙な特徴を多数明らかにできることを実証した。
これらの機能はプロセスの最適化と品質管理に寄与できると考えています。
関連論文リスト
- Interactive Image Selection and Training for Brain Tumor Segmentation Network [42.62139206176152]
画像マーカー(FLIM)からの特徴学習に基づく画像選択と訓練のための対話的手法を用いる。
その結果,本手法では,U字型ネットワークのエンコーダを訓練するための少数の画像を選択することができ,手動選択に匹敵する性能を得ることができ,また,バックプロパゲーションとトレーニング画像のトレーニングを施した同一のU字型ネットワークを超越することさえできた。
論文 参考訳(メタデータ) (2024-06-05T13:03:06Z) - Light-weight Retinal Layer Segmentation with Global Reasoning [14.558920359236572]
OCT画像に適用可能な網膜層セグメンテーションのためのLightReSegを提案する。
提案手法は,現在の最先端技術であるTransUnetと比較して,セグメンテーション性能が向上する。
論文 参考訳(メタデータ) (2024-04-25T05:42:41Z) - Moonshot: Towards Controllable Video Generation and Editing with
Multimodal Conditions [94.03133100056372]
Moonshotは、画像とテキストのマルチモーダル入力を同時に処理する新しいビデオ生成モデルである。
モデルは、パーソナライズされたビデオ生成、画像アニメーション、ビデオ編集など、様々な生成アプリケーションに容易に再利用できる。
論文 参考訳(メタデータ) (2024-01-03T16:43:47Z) - SENetV2: Aggregated dense layer for channelwise and global
representations [0.0]
我々は,Squeeze残余モジュール内に,多分岐密度層である新しい多層パーセプトロンを導入する。
この融合により、チャネルワイドパターンを捕捉し、グローバルな知識を持つネットワークの能力が向上する。
ベンチマークデータセットの広範な実験を行い、モデルを検証し、確立したアーキテクチャと比較する。
論文 参考訳(メタデータ) (2023-11-17T14:10:57Z) - Collaging Class-specific GANs for Semantic Image Synthesis [68.87294033259417]
本稿では,高分解能なセマンティック画像合成のための新しい手法を提案する。
1つのベースイメージジェネレータと複数のクラス固有のジェネレータで構成される。
実験により,本手法は高解像度で高品質な画像を生成することができることが示された。
論文 参考訳(メタデータ) (2021-10-08T17:46:56Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - ViViT: A Video Vision Transformer [75.74690759089529]
ビデオ分類にpure-transformerベースのモデルを提案する。
本モデルでは,入力ビデオから時間トークンを抽出し,一連のトランスフォーマー層で符号化する。
トレーニング中にモデルを効果的に正規化し、トレーニング済みの画像モデルを利用して比較的小さなデータセットでトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-03-29T15:27:17Z) - Swapping Autoencoder for Deep Image Manipulation [94.33114146172606]
画像操作に特化して設計されたディープモデルであるSwapping Autoencoderを提案する。
キーとなるアイデアは、2つの独立したコンポーネントで画像をエンコードし、交換された組み合わせをリアルなイメージにマップするように強制することだ。
複数のデータセットの実験により、我々のモデルはより良い結果が得られ、最近の生成モデルと比較してかなり効率が良いことが示されている。
論文 参考訳(メタデータ) (2020-07-01T17:59:57Z) - Multi-Channel Attention Selection GANs for Guided Image-to-Image
Translation [148.9985519929653]
本稿では,画像から画像への変換のためのマルチチャネルアテンション選択生成支援ネットワーク(SelectionGAN)を提案する。
提案するフレームワークとモジュールは統合されたソリューションであり、セマンティック画像合成などの他の生成タスクに応用できる。
論文 参考訳(メタデータ) (2020-02-03T23:17:10Z) - Adversarial Code Learning for Image Generation [6.471449014998549]
ACL(Adversarial Code Learning)モジュールは、画像生成性能をいくつかのディープモデルに改善する。
我々は,元来のGANとよく似た,対角的な学習プロセスで学習を行う。
我々のモデルは、画像生成タスクの汎用性を示す重要な改善を達成している。
論文 参考訳(メタデータ) (2020-01-30T19:52:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。