論文の概要: By-Example Synthesis of Vector Textures
- arxiv url: http://arxiv.org/abs/2501.13812v1
- Date: Thu, 23 Jan 2025 16:35:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:55:57.546350
- Title: By-Example Synthesis of Vector Textures
- Title(参考訳): ベクトルテクスチャのバイサンプル合成
- Authors: Christopher Palazzolo, Oliver van Kaick, David Mould,
- Abstract要約: 任意の大きさの新規なベクトルテクスチャを1つの例に示す新しい手法を提案する。
提案手法は,まず先例を分割して一次テキストを抽出し,視覚的類似度に基づいてクラスタ化する。
本手法は,データポイントと色の組み合わせで定義された背景の勾配場を構築する。
- 参考スコア(独自算出の注目度): 3.5874768942837787
- License:
- Abstract: We propose a new method for synthesizing an arbitrarily sized novel vector texture given a single raster exemplar. Our method first segments the exemplar to extract the primary textons, and then clusters them based on visual similarity. We then compute a descriptor to capture each texton's neighborhood which contains the inter-category relationships that are used at synthesis time. Next, we use a simple procedure to both extract and place the secondary textons behind the primary polygons. Finally, our method constructs a gradient field for the background which is defined by a set of data points and colors. The color of the secondary polygons are also adjusted to better match the gradient field. To compare our work with other methods, we use a wide range of perceptual-based metrics.
- Abstract(参考訳): 本研究では, 任意の大きさの新規なベクトルテクスチャを合成する手法を提案する。
提案手法は,まず先例を分割して一次テキストを抽出し,視覚的類似度に基づいてクラスタ化する。
次に記述子を計算して、合成時に使用されるカテゴリ間関係を含む各テキストの近傍をキャプチャする。
次に, 一次多角形の背後にある二次テキストを抽出し, 配置するために, 簡単な手順を用いる。
最後に,データ点と色の組み合わせで定義された背景の勾配場を構築する。
二次多角形の色も、勾配場に合うように調整される。
私たちの研究を他の手法と比較するために、幅広い知覚に基づくメトリクスを使用します。
関連論文リスト
- PBFormer: Capturing Complex Scene Text Shape with Polynomial Band
Transformer [28.52028534365144]
PBFormerは効率的かつ強力なシーンテキスト検出器である。
変圧器を新しいテキスト形状バンド(PB)で統一する。
この単純な操作は、小さなテキストを検出するのに役立つ。
論文 参考訳(メタデータ) (2023-08-29T03:41:27Z) - LRANet: Towards Accurate and Efficient Scene Text Detection with
Low-Rank Approximation Network [63.554061288184165]
低ランク近似に基づく新しいパラメータ化テキスト形状法を提案する。
異なるテキストの輪郭間の形状相関を探索することにより, 形状表現における一貫性, コンパクト性, 単純性, 頑健性を実現する。
我々はLRANetという名前の正確で効率的な任意の形状のテキスト検出器を実装した。
論文 参考訳(メタデータ) (2023-06-27T02:03:46Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - Multiscale Analysis for Improving Texture Classification [62.226224120400026]
本稿では,テクスチャの異なる空間周波数帯域を別々に扱うために,ガウス・ラプラシアピラミッドを用いる。
バイオインスパイアされたテクスチャ記述子,情報理論測度,灰色レベルの共起行列特徴,ハリリック統計特徴から抽出した特徴を特徴ベクトルに集約した。
論文 参考訳(メタデータ) (2022-04-21T01:32:22Z) - Few Could Be Better Than All: Feature Sampling and Grouping for Scene
Text Detection [47.820683360286786]
本稿では,シーンテキスト検出のためのトランスフォーマーアーキテクチャを提案する。
まず、フォアグラウンドテキストに非常に関係のある、あらゆるスケールでいくつかの代表的特徴を選択します。
各特徴群がテキストインスタンスに対応するため、そのバウンディングボックスは後処理操作なしで容易に得ることができる。
論文 参考訳(メタデータ) (2022-03-29T04:02:31Z) - Hierarchical Heterogeneous Graph Representation Learning for Short Text
Classification [60.233529926965836]
短文分類のためのグラフニューラルネットワーク(GNN)に基づく ShiNE と呼ばれる新しい手法を提案する。
まず,短文データセットを単語レベル成分グラフからなる階層的不均一グラフとしてモデル化する。
そして、類似した短いテキスト間の効果的なラベル伝搬を容易にするショート文書グラフを動的に学習する。
論文 参考訳(メタデータ) (2021-10-30T05:33:05Z) - Polygonal Point Set Tracking [50.445151155209246]
本稿では,学習に基づく多角形点集合追跡手法を提案する。
私たちのゴールは、ターゲットの輪郭上の対応する点を追跡することです。
本稿では,部分歪みとテキストマッピングに対する本手法の視覚効果について述べる。
論文 参考訳(メタデータ) (2021-05-30T17:12:36Z) - Contour Integration using Graph-Cut and Non-Classical Receptive Field [4.935491924643742]
本稿では,他のアルゴリズムのエッジセグメントから画像の輪郭を検出する新しい手法を提案する。
提案したエネルギー関数は、テクスチャノイズを抑制するのに役立つ一次視覚野の周囲変調にインスパイアされている。
論文 参考訳(メタデータ) (2020-10-27T19:07:13Z) - Learning Texture Invariant Representation for Domain Adaptation of
Semantic Segmentation [19.617821473205694]
合成データで訓練されたモデルが実際のデータに一般化することは困難である。
我々はスタイル伝達アルゴリズムを用いて合成画像のテクスチャを多様性する。
我々は、ターゲットテクスチャを直接監視するために、自己学習でモデルを微調整する。
論文 参考訳(メタデータ) (2020-03-02T13:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。