論文の概要: Descriptive Modeling of Textiles using FE Simulations and Deep Learning
- arxiv url: http://arxiv.org/abs/2106.13982v1
- Date: Sat, 26 Jun 2021 09:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 09:36:44.941791
- Title: Descriptive Modeling of Textiles using FE Simulations and Deep Learning
- Title(参考訳): feシミュレーションと深層学習による織物の記述的モデリング
- Authors: Arturo Mendoza, Roger Trullo, Yanneck Wielhorski
- Abstract要約: 織物の糸の幾何学的特徴を抽出する新しい完全自動化手法を提案する。
提案手法は、2つのディープニューラルネットワークアーキテクチャ(U-NetとMask RCNN)を用いる。
実験の結果,CT画像上で糸のインスタンスセグメンテーションを行う上で,本手法は正確かつ堅牢であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we propose a novel and fully automated method for extracting the
yarn geometrical features in woven composites so that a direct parametrization
of the textile reinforcement is achieved (e.g., FE mesh). Thus, our aim is not
only to perform yarn segmentation from tomographic images but rather to provide
a complete descriptive modeling of the fabric. As such, this direct approach
improves on previous methods that use voxel-wise masks as intermediate
representations followed by re-meshing operations (yarn envelope estimation).
The proposed approach employs two deep neural network architectures (U-Net and
Mask RCNN). First, we train the U-Net to generate synthetic CT images from the
corresponding FE simulations. This allows to generate large quantities of
annotated data without requiring costly manual annotations. This data is then
used to train the Mask R-CNN, which is focused on predicting contour points
around each of the yarns in the image. Experimental results show that our
method is accurate and robust for performing yarn instance segmentation on CT
images, this is further validated by quantitative and qualitative analyses.
- Abstract(参考訳): 本研究では繊維補強の直接パラメトリゼーション(例えばfeメッシュ)を達成するために織物複合材料の糸の幾何学的特徴を抽出する新規かつ完全自動化手法を提案する。
したがって,本研究の目的は,トモグラフィ画像から糸のセグメンテーションを行うだけでなく,布の完全な記述的モデリングを提供することである。
このように、この直接的なアプローチは、中間表現としてボクセルマスクを使用した以前の手法を改良し、次いで再処理(ヤルエンベロープ推定)を行う。
提案手法は2つのディープニューラルネットワークアーキテクチャ(u-netとmask rcnn)を用いる。
まず、対応するFEシミュレーションから合成CT画像を生成するためにU-Netを訓練する。
これにより、高価な手動アノテーションを必要とせずに、大量の注釈付きデータを生成することができる。
このデータは、画像内の各糸の輪郭点の予測に焦点を当てたマスクr-cnnのトレーニングに使用される。
実験の結果,ct画像上で糸インスタンスセグメンテーションを行うための精度とロバストが得られ,定量的・質的解析により検証された。
関連論文リスト
- Synthetic dual image generation for reduction of labeling efforts in semantic segmentation of micrographs with a customized metric function [0.0]
材料分析のためのセマンティックセグメンテーションモデルの訓練には、マイクログラフとそれに対応するマスクが必要である。
マスクと組み合わせた合成微細構造画像の生成による意味的セグメンテーションモデルの改善のためのワークフローを実証する。
このアプローチは、少数の実画像を持つモデルをトレーニングするためのユーザフレンドリなソリューションとして機能するなど、さまざまな種類の画像データに一般化することができる。
論文 参考訳(メタデータ) (2024-08-01T16:54:11Z) - Fine-Grained Multi-View Hand Reconstruction Using Inverse Rendering [11.228453237603834]
本稿では,逆レンダリングを利用して手ポーズを復元し,詳細を複雑化する多視点ハンドメッシュ再構成手法を提案する。
また、ハンドメッシュとテクスチャの両方を洗練させるために、新しいハンドアルベドとメッシュ(HAM)最適化モジュールも導入した。
提案手法は,再現精度とレンダリング品質の両面において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2024-07-08T07:28:24Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Learning Self-Prior for Mesh Inpainting Using Self-Supervised Graph Convolutional Networks [4.424836140281846]
入力として不完全なメッシュのみを必要とする自己優先型のメッシュインペイントフレームワークを提案する。
本手法は塗装工程を通して多角形メッシュフォーマットを維持している。
提案手法は従来のデータセットに依存しない手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-01T02:51:38Z) - Neural inverse procedural modeling of knitting yarns from images [6.114281140793954]
本研究では,個々の特性に着目したネットワークのアンサンブルにおいて,糸構造の複雑さをよりよく見いだせることを示す。
そこで本研究では,パラメトリック・プロシージャ糸モデルと各ネットワークアンサンブルを組み合わせることで,ロバストなパラメータ推定が可能であることを実証した。
論文 参考訳(メタデータ) (2023-03-01T00:56:39Z) - A Model-data-driven Network Embedding Multidimensional Features for
Tomographic SAR Imaging [5.489791364472879]
多次元特徴量に基づくトモSARイメージングを実現するためのモデルデータ駆動型ネットワークを提案する。
画像シーンの多次元的特徴を効果的に向上するために、2つの2次元処理モジュール(畳み込みエンコーダ-デコーダ構造)を追加します。
従来のCS-based FISTA法とDL-based gamma-Net法と比較して,提案手法は良好な画像精度を有しつつ,完全性を向上させる。
論文 参考訳(メタデータ) (2022-11-28T02:01:43Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。