論文の概要: Neural inverse procedural modeling of knitting yarns from images
- arxiv url: http://arxiv.org/abs/2303.00154v1
- Date: Wed, 1 Mar 2023 00:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 16:28:28.348109
- Title: Neural inverse procedural modeling of knitting yarns from images
- Title(参考訳): 画像からの編み糸の神経逆手続きモデリング
- Authors: Elena Trunz, Jonathan Klein, Jan M\"uller, Lukas Bode, Ralf Sarlette,
Michael Weinmann, Reinhard Klein
- Abstract要約: 本研究では,個々の特性に着目したネットワークのアンサンブルにおいて,糸構造の複雑さをよりよく見いだせることを示す。
そこで本研究では,パラメトリック・プロシージャ糸モデルと各ネットワークアンサンブルを組み合わせることで,ロバストなパラメータ推定が可能であることを実証した。
- 参考スコア(独自算出の注目度): 6.114281140793954
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We investigate the capabilities of neural inverse procedural modeling to
infer high-quality procedural yarn models with fiber-level details from single
images of depicted yarn samples. While directly inferring all parameters of the
underlying yarn model based on a single neural network may seem an intuitive
choice, we show that the complexity of yarn structures in terms of twisting and
migration characteristics of the involved fibers can be better encountered in
terms of ensembles of networks that focus on individual characteristics. We
analyze the effect of different loss functions including a parameter loss to
penalize the deviation of inferred parameters to ground truth annotations, a
reconstruction loss to enforce similar statistics of the image generated for
the estimated parameters in comparison to training images as well as an
additional regularization term to explicitly penalize deviations between latent
codes of synthetic images and the average latent code of real images in the
latent space of the encoder. We demonstrate that the combination of a carefully
designed parametric, procedural yarn model with respective network ensembles as
well as loss functions even allows robust parameter inference when solely
trained on synthetic data. Since our approach relies on the availability of a
yarn database with parameter annotations and we are not aware of such a
respectively available dataset, we additionally provide, to the best of our
knowledge, the first dataset of yarn images with annotations regarding the
respective yarn parameters. For this purpose, we use a novel yarn generator
that improves the realism of the produced results over previous approaches.
- Abstract(参考訳): そこで本研究では,神経逆プロシーデュラルモデルを用いて,繊維レベルの詳細情報を有する高品質プロシーデュラル糸モデルを推定する能力について検討した。
単一ニューラルネットワークに基づく糸モデルのパラメータを直接推測することは直感的な選択に思えるかもしれないが, 繊維のねじれ特性やマイグレーション特性の点で, 糸構造の複雑さは, 個々の特性に焦点を絞ったネットワークのアンサンブルにおいて, よりよく見受けられることを示す。
提案手法では,推定パラメータの接地真理アノテーションへの偏差を算定するパラメータ損失や,トレーニング画像と比較して推定パラメータに対して生成した画像の類似統計を強制する再構成損失,および合成画像の潜時符号とエンコーダの潜時空間における実画像の平均潜時符号との偏差を明示する追加の正規化項を含む,異なる損失関数の効果を解析する。
提案手法は, パラメトリック・プロシージャ糸モデルと各ネットワークアンサンブル, 損失関数の組み合わせによって, 合成データのみを訓練した場合に, 頑健なパラメータ推論が可能であることを実証する。
提案手法は,パラメータアノテーションを持つ糸データベースの利用可能性に依存しており,それぞれが利用可能なデータセットを意識していないため,我々の知る限り,各糸パラメータに関するアノテーションを持つ糸画像の最初のデータセットを提供する。
この目的のために,従来の方法よりも結果のリアリズムを改善する新しい糸発生器を用いる。
関連論文リスト
- RANRAC: Robust Neural Scene Representations via Random Ray Consensus [12.161889666145127]
RANRAC(RANdom RAy Consensus)は、一貫性のないデータの影響を排除するための効率的な手法である。
我々はRANSACパラダイムのファジィ適応を定式化し、大規模モデルへの適用を可能にした。
その結果, 新規な視点合成のための最先端のロバストな手法と比較して, 顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-12-15T13:33:09Z) - Regularization, early-stopping and dreaming: a Hopfield-like setup to
address generalization and overfitting [0.0]
正規化損失関数に勾配降下を適用し,最適ネットワークパラメータを求める。
この枠組みの中で、最適なニューロン相互作用行列は、繰り返し学習プロトコルによって修正されたヘビアン核に対応する。
論文 参考訳(メタデータ) (2023-08-01T15:04:30Z) - Tunable Convolutions with Parametric Multi-Loss Optimization [5.658123802733283]
ニューラルネットワークの挙動は、トレーニング中に使用される特定の損失とデータによって不適切に決定される。
ユーザの好みやデータの動的特性といった外部要因に基づいて,推論時にモデルをチューニングすることが望ましい場合が多い。
これは、不適切な画像から画像への変換タスクの知覚歪曲トレードオフのバランスをとるために特に重要である。
論文 参考訳(メタデータ) (2023-04-03T11:36:10Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Self-Similarity Priors: Neural Collages as Differentiable Fractal
Representations [73.14227103400964]
本稿では,自己相似性の自動発見における学習の役割と下流タスクの活用について検討する。
我々は、自己参照型構造化変換のパラメータとしてデータを表す暗黙演算子の新しいクラスであるニューラルコラージュを設計する。
本稿では,ニューラルコラージュが生成する表現を,データ圧縮や生成など様々なタスクで活用する方法を検討する。
論文 参考訳(メタデータ) (2022-04-15T22:54:23Z) - Conditional Variational Autoencoder for Learned Image Reconstruction [5.487951901731039]
本研究では,未知画像の後部分布を問合せ観測で近似する新しいフレームワークを開発する。
暗黙のノイズモデルと先行処理を処理し、データ生成プロセス(フォワード演算子)を組み込み、学習された再構成特性は異なるデータセット間で転送可能である。
論文 参考訳(メタデータ) (2021-10-22T10:02:48Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Descriptive Modeling of Textiles using FE Simulations and Deep Learning [0.0]
織物の糸の幾何学的特徴を抽出する新しい完全自動化手法を提案する。
提案手法は、2つのディープニューラルネットワークアーキテクチャ(U-NetとMask RCNN)を用いる。
実験の結果,CT画像上で糸のインスタンスセグメンテーションを行う上で,本手法は正確かつ堅牢であることがわかった。
論文 参考訳(メタデータ) (2021-06-26T09:32:24Z) - 3D Human Pose and Shape Regression with Pyramidal Mesh Alignment
Feedback Loop [128.07841893637337]
回帰に基づく手法は最近、単眼画像からヒトのメッシュを再構成する有望な結果を示した。
パラメータの小さな偏差は、推定メッシュと画像のエビデンスの間に顕著な不一致を引き起こす可能性がある。
本稿では,特徴ピラミッドを活用し,予測パラメータを補正するために,ピラミッドメッシュアライメントフィードバック(pymaf)ループを提案する。
論文 参考訳(メタデータ) (2021-03-30T17:07:49Z) - SIR: Self-supervised Image Rectification via Seeing the Same Scene from
Multiple Different Lenses [82.56853587380168]
本稿では、異なるレンズからの同一シーンの歪み画像の補正結果が同一であるべきという重要な知見に基づいて、新しい自己監督画像補正法を提案する。
我々は、歪みパラメータから修正画像を生成し、再歪み画像を生成するために、微分可能なワープモジュールを利用する。
本手法は,教師付きベースライン法や代表的最先端手法と同等あるいはそれ以上の性能を実現する。
論文 参考訳(メタデータ) (2020-11-30T08:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。