論文の概要: Image-based Textile Decoding
- arxiv url: http://arxiv.org/abs/2101.00395v1
- Date: Sat, 2 Jan 2021 07:41:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 12:56:06.916014
- Title: Image-based Textile Decoding
- Title(参考訳): イメージベース繊維デコード
- Authors: Siqiang Chen, Masahiro Toyoura, Takamasa Terada, Xiaoyang Mao, Gang Xu
- Abstract要約: 繊維織物は、無数の平行垂直糸(ワープ)と水平糸(ウェフト)で構成されています。
グリッド上で反りとよこ糸が交差するパターンは、バイナリマトリックスで定義されます。
パターンを中間表現に変換する方法と、出力をパターンに変換する方法を紹介します。
- 参考スコア(独自算出の注目度): 2.28074887306053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A textile fabric consists of countless parallel vertical yarns (warps) and
horizontal yarns (wefts). While common looms can weave repetitive patterns,
Jacquard looms can weave the patterns without repetition restrictions. A
pattern in which the warps and wefts cross on a grid is defined in a binary
matrix. The binary matrix can define which warp and weft is on top at each grid
point of the Jacquard fabric. The process can be regarded as encoding from
pattern to textile. In this work, we propose a decoding method that generates a
binary pattern from a textile fabric that has been already woven. We could not
use a deep neural network to learn the process based solely on the training set
of patterns and observed fabric images. The crossing points in the observed
image were not completely located on the grid points, so it was difficult to
take a direct correspondence between the fabric images and the pattern
represented by the matrix in the framework of deep learning. Therefore, we
propose a method that can apply the framework of deep learning via the
intermediate representation of patterns and images. We show how to convert a
pattern into an intermediate representation and how to reconvert the output
into a pattern and confirm its effectiveness. In this experiment, we confirmed
that 93% of correct pattern was obtained by decoding the pattern from the
actual fabric images and weaving them again.
- Abstract(参考訳): 繊維織物は、無数の平行な垂直糸(ワープ)と水平糸(ウェフト)からなる。
一般的な織機は繰り返しパターンを織ることができるが、ジャカード織機は繰り返し制限なしでパターンを織ることができる。
グリッド上のワープとウェフトが交差するパターンはバイナリ行列で定義される。
二項行列は、ジャカードファブリックの各格子点の上のワープとウェフトを定義することができる。
このプロセスは、パターンから織物へのエンコーディングと見なすことができる。
本研究では,すでに編まれている織物からバイナリパターンを生成する復号法を提案する。
パターンのトレーニングセットと観測されたファブリックイメージのみに基づいて、ディープニューラルネットワークを使ってプロセスを学習することはできませんでした。
観測画像の交差点が格子点に完全に位置していたわけではないため, 深層学習の枠組みにおいて, ファブリック画像と行列で表されるパターンとを直接対応付けることは困難であった。
そこで本研究では,パターンと画像の中間表現を通じてディープラーニングの枠組みを適用する手法を提案する。
パターンを中間表現に変換する方法と、出力をパターンに変換する方法を示し、その有効性を確認する。
本実験では,実際の織物画像からパターンをデコードし,再度織ることにより,正しいパターンの93%が得られたことを確認した。
関連論文リスト
- FabricDiffusion: High-Fidelity Texture Transfer for 3D Garments Generation from In-The-Wild Clothing Images [56.63824638417697]
ファブリックディフュージョン(FabricDiffusion)は、織物のテクスチャを1枚の衣服画像から任意の形状の3D衣服に転送する方法である。
FabricDiffusionは、テクスチャパターン、材料特性、詳細な印刷物やロゴを含む、単一の衣料品画像から様々な特徴を伝達できることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:12Z) - SPnet: Estimating Garment Sewing Patterns from a Single Image [10.604555099281173]
本稿では,提案したユーザの単一画像から3次元衣料品モデルを再構成する新しい手法を提案する。
一つの画像から縫製パターンを通して衣服の基本形状を推定することにより、任意のポーズに適応的に変形できる3D衣服を生成することができる。
論文 参考訳(メタデータ) (2023-12-26T09:51:25Z) - Towards Garment Sewing Pattern Reconstruction from a Single Image [76.97825595711444]
ガーメント縫製パターンは、衣服の本質的な休息形態を表しており、ファッションデザイン、バーチャルトライオン、デジタルアバターといった多くの用途のコアとなっている。
まず,SewFactoryという多目的データセットを合成した。
次に、縫製パターン予測性能を大幅に向上させるSewformerと呼ばれる2レベルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-11-07T18:59:51Z) - LayoutLLM-T2I: Eliciting Layout Guidance from LLM for Text-to-Image
Generation [121.45667242282721]
レイアウト計画と画像生成を実現するための粗大なパラダイムを提案する。
提案手法は,フォトリアリスティックなレイアウトと画像生成の観点から,最先端のモデルよりも優れている。
論文 参考訳(メタデータ) (2023-08-09T17:45:04Z) - Learning Accurate Template Matching with Differentiable Coarse-to-Fine
Correspondence Refinement [28.00275083733545]
本稿では, 精度の高いテンプレートマッチング手法を提案する。
変圧器によって提供される新規な構造認識情報に基づいて、粗い対応を用いて初期ワープを推定する。
提案手法は最先端の手法やベースラインよりも大幅に優れており,実データにおいても,優れた一般化能力と視覚的検証が可能な結果が得られる。
論文 参考訳(メタデータ) (2023-03-15T08:24:10Z) - eDiffi: Text-to-Image Diffusion Models with an Ensemble of Expert
Denoisers [87.52504764677226]
大規模拡散に基づく生成モデルは、テキスト条件の高解像度画像合成においてブレークスルーをもたらした。
異なる段階合成に特化したテキスト・画像拡散モデルのアンサンブルを訓練する。
eDiffiと呼ばれる拡散モデルのアンサンブルは、同じ推論コストを維持しながらテキストアライメントを改善する。
論文 参考訳(メタデータ) (2022-11-02T17:43:04Z) - Self-Adaptively Learning to Demoire from Focused and Defocused Image
Pairs [97.67638106818613]
モアレアーティファクトはデジタル写真では一般的であり、高周波シーンコンテンツとカメラのカラーフィルタアレイとの干渉によるものである。
大規模反復で訓練された既存のディープラーニングに基づく復習手法は、様々な複雑なモアレパターンを扱う場合に限られる。
本稿では,高頻度画像の復調のための自己適応学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T23:09:02Z) - Wavelet-Based Dual-Branch Network for Image Demoireing [148.91145614517015]
画像復調のための空間的注意機構を備えたウェーブレットベースのデュアルブランチネットワーク(WDNet)を設計する。
我々のネットワークはウェーブレット領域のモアレパターンを除去し、モアレパターンの周波数を画像の内容から分離する。
さらに,本手法の有効性を実証し,WDNetが非スクリーン画像上のモアレアーティファクトの除去を一般化することを示す。
論文 参考訳(メタデータ) (2020-07-14T16:44:30Z) - Generating Embroidery Patterns Using Image-to-Image Translation [2.055949720959582]
そこで本研究では,2つの機械学習手法を用いて刺刺画像から画像への変換を行う。
私たちのゴールは、ユーザのアップロードした画像から、刺青画像に似たプレビュー画像を生成することです。
実験結果から,これらの手法がユーザ画像の刺青バージョンを近似したプレビュー生成に成功していることが示された。
論文 参考訳(メタデータ) (2020-03-05T20:32:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。