論文の概要: Descriptive Modeling of Textiles using FE Simulations and Deep Learning
- arxiv url: http://arxiv.org/abs/2106.13982v1
- Date: Sat, 26 Jun 2021 09:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 09:36:44.941791
- Title: Descriptive Modeling of Textiles using FE Simulations and Deep Learning
- Title(参考訳): feシミュレーションと深層学習による織物の記述的モデリング
- Authors: Arturo Mendoza, Roger Trullo, Yanneck Wielhorski
- Abstract要約: 織物の糸の幾何学的特徴を抽出する新しい完全自動化手法を提案する。
提案手法は、2つのディープニューラルネットワークアーキテクチャ(U-NetとMask RCNN)を用いる。
実験の結果,CT画像上で糸のインスタンスセグメンテーションを行う上で,本手法は正確かつ堅牢であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we propose a novel and fully automated method for extracting the
yarn geometrical features in woven composites so that a direct parametrization
of the textile reinforcement is achieved (e.g., FE mesh). Thus, our aim is not
only to perform yarn segmentation from tomographic images but rather to provide
a complete descriptive modeling of the fabric. As such, this direct approach
improves on previous methods that use voxel-wise masks as intermediate
representations followed by re-meshing operations (yarn envelope estimation).
The proposed approach employs two deep neural network architectures (U-Net and
Mask RCNN). First, we train the U-Net to generate synthetic CT images from the
corresponding FE simulations. This allows to generate large quantities of
annotated data without requiring costly manual annotations. This data is then
used to train the Mask R-CNN, which is focused on predicting contour points
around each of the yarns in the image. Experimental results show that our
method is accurate and robust for performing yarn instance segmentation on CT
images, this is further validated by quantitative and qualitative analyses.
- Abstract(参考訳): 本研究では繊維補強の直接パラメトリゼーション(例えばfeメッシュ)を達成するために織物複合材料の糸の幾何学的特徴を抽出する新規かつ完全自動化手法を提案する。
したがって,本研究の目的は,トモグラフィ画像から糸のセグメンテーションを行うだけでなく,布の完全な記述的モデリングを提供することである。
このように、この直接的なアプローチは、中間表現としてボクセルマスクを使用した以前の手法を改良し、次いで再処理(ヤルエンベロープ推定)を行う。
提案手法は2つのディープニューラルネットワークアーキテクチャ(u-netとmask rcnn)を用いる。
まず、対応するFEシミュレーションから合成CT画像を生成するためにU-Netを訓練する。
これにより、高価な手動アノテーションを必要とせずに、大量の注釈付きデータを生成することができる。
このデータは、画像内の各糸の輪郭点の予測に焦点を当てたマスクr-cnnのトレーニングに使用される。
実験の結果,ct画像上で糸インスタンスセグメンテーションを行うための精度とロバストが得られ,定量的・質的解析により検証された。
関連論文リスト
- Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Deep Spiking-UNet for Image Processing [101.4553345195388]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Neural inverse procedural modeling of knitting yarns from images [6.114281140793954]
本研究では,個々の特性に着目したネットワークのアンサンブルにおいて,糸構造の複雑さをよりよく見いだせることを示す。
そこで本研究では,パラメトリック・プロシージャ糸モデルと各ネットワークアンサンブルを組み合わせることで,ロバストなパラメータ推定が可能であることを実証した。
論文 参考訳(メタデータ) (2023-03-01T00:56:39Z) - A Model-data-driven Network Embedding Multidimensional Features for
Tomographic SAR Imaging [5.489791364472879]
多次元特徴量に基づくトモSARイメージングを実現するためのモデルデータ駆動型ネットワークを提案する。
画像シーンの多次元的特徴を効果的に向上するために、2つの2次元処理モジュール(畳み込みエンコーダ-デコーダ構造)を追加します。
従来のCS-based FISTA法とDL-based gamma-Net法と比較して,提案手法は良好な画像精度を有しつつ,完全性を向上させる。
論文 参考訳(メタデータ) (2022-11-28T02:01:43Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z) - Applying convolutional neural networks to extremely sparse image
datasets using an image subdivision approach [0.0]
本研究の目的は、畳み込みニューラルネットワーク(CNN)が、元の画像データセットを分割することにより、非常にスパースな画像ライブラリに適用できることを実証することである。
論文 参考訳(メタデータ) (2020-10-25T07:43:20Z) - Semantic Segmentation With Multi Scale Spatial Attention For Self
Driving Cars [2.7317088388886384]
本稿では,様々なスケールのマルチスケール特徴融合を用いた新しいニューラルネットワークを提案し,その精度と効率的なセマンティックイメージセグメンテーションを提案する。
我々は、ResNetベースの特徴抽出器、ダウンサンプリング部における拡張畳み込み層、アップサンプリング部におけるアトラス畳み込み層を使用し、コンキャット操作を用いてそれらをマージした。
より文脈的な情報をエンコードし、ネットワークの受容領域を強化するため、新しいアテンションモジュールが提案されている。
論文 参考訳(メタデータ) (2020-06-30T20:19:09Z) - SegAttnGAN: Text to Image Generation with Segmentation Attention [6.561007033994183]
本稿では,テキスト・ツー・イメージ合成タスクに新たなセグメンテーション情報を利用する新しい生成ネットワーク(SegAttnGAN)を提案する。
モデルに導入されたセグメンテーションデータは、ジェネレータトレーニングの有用なガイダンスを提供するため、提案モデルでは、より優れたリアリズム品質の画像を生成することができる。
論文 参考訳(メタデータ) (2020-05-25T23:56:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。