論文の概要: Deep Sketch-Based Modeling: Tips and Tricks
- arxiv url: http://arxiv.org/abs/2011.06133v3
- Date: Mon, 26 Apr 2021 09:23:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 06:48:51.157334
- Title: Deep Sketch-Based Modeling: Tips and Tricks
- Title(参考訳): deep sketch-based modeling: ヒントとトリック
- Authors: Yue Zhong, Yulia Gryaditskaya, Honggang Zhang, Yi-Zhe Song
- Abstract要約: スケッチと画像入力の主な違いは, (i) スタイルのばらつき, (ii) 視点, (iii) 空間性である。
我々は、一組の深層画像モデリングソリューションを比較し、スケッチ入力に対処するために、それらのパフォーマンスをどのように改善できるかを示す。
- 参考スコア(独自算出の注目度): 48.800828637514066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep image-based modeling received lots of attention in recent years, yet the
parallel problem of sketch-based modeling has only been briefly studied, often
as a potential application. In this work, for the first time, we identify the
main differences between sketch and image inputs: (i) style variance, (ii)
imprecise perspective, and (iii) sparsity. We discuss why each of these
differences can pose a challenge, and even make a certain class of image-based
methods inapplicable. We study alternative solutions to address each of the
difference. By doing so, we drive out a few important insights: (i) sparsity
commonly results in an incorrect prediction of foreground versus background,
(ii) diversity of human styles, if not taken into account, can lead to very
poor generalization properties, and finally (iii) unless a dedicated sketching
interface is used, one can not expect sketches to match a perspective of a
fixed viewpoint. Finally, we compare a set of representative deep single-image
modeling solutions and show how their performance can be improved to tackle
sketch input by taking into consideration the identified critical differences.
- Abstract(参考訳): 近年、深部画像ベースモデリングが注目されているが、スケッチベースモデリングの並列問題は、しばしば潜在的な応用として短期間研究されているだけである。
本研究では,まず,スケッチと画像入力の主な違いを明らかにする。
(i)スタイルのばらつき。
(ii)不合理な視点、及び
(iii)気まぐれ。
これらの違いがなぜ課題となるのかを議論し、特定の画像ベースの手法を適用できないようにする。
我々は、それぞれの違いに対処するための代替ソリューションを研究します。
そうすることで、私たちはいくつかの重要な洞察を導き出します。
(i)スパーシティは一般的に前景と背景の誤った予測をもたらす。
二 人間の様式の多様性が考慮されなければ、非常に貧弱な一般化特性につながり、最終的に
(iii)専用のスケッチインタフェースが使われていなければ、一定の視点の視点に合致するスケッチを期待できない。
最後に,一組のディープ・シングルイメージ・モデリング・ソリューションを比較し,重要な相違点を考慮し,スケッチ入力に対処するためにそれらの性能をどのように改善できるかを示す。
関連論文リスト
- Multi-Perspective Stance Detection [2.8073184910275293]
マルチパースペクティブアプローチは、単一ラベルを使用するベースラインよりも優れた分類性能が得られる。
これは、より包括的な視点を意識したAIモデルを設計することが、責任と倫理的なAIを実装するための重要な第一歩であるだけでなく、従来のアプローチよりも優れた結果を達成することも必要である。
論文 参考訳(メタデータ) (2024-11-13T16:30:41Z) - Multi-Style Facial Sketch Synthesis through Masked Generative Modeling [17.313050611750413]
本稿では,画像と対応するマルチスタイリズドスケッチを効率よく変換する軽量なエンドツーエンド合成モデルを提案する。
本研究では,半教師付き学習を学習プロセスに取り入れることで,データ不足の問題を克服する。
提案手法は,複数のベンチマークで従来アルゴリズムより常に優れていた。
論文 参考訳(メタデータ) (2024-08-22T13:45:04Z) - Freeview Sketching: View-Aware Fine-Grained Sketch-Based Image Retrieval [85.73149096516543]
微細スケッチベース画像検索(FG-SBIR)におけるスケッチ作成時の視点選択について検討する。
パイロットスタディでは、クエリスケッチがターゲットインスタンスと異なる場合、システムの苦労を強調している。
これを解決するために、ビューに依存しないタスクとビュー固有のタスクの両方をシームレスに収容するビューアウェアシステムを提案する。
論文 参考訳(メタデータ) (2024-07-01T21:20:44Z) - Uncertainty-Aware Cross-Modal Transfer Network for Sketch-Based 3D Shape
Retrieval [8.765045867163646]
本稿では,この問題に対処する不確実性を考慮したクロスモーダルトランスファーネットワーク(UACTN)を提案する。
まず、スケッチ機能と不確実性を同時に学習するエンドツーエンドの分類ベースのアプローチを導入する。
そして、3D形状特徴を予め学習したスケッチ埋め込み空間にマッピングして特徴アライメントを行う。
論文 参考訳(メタデータ) (2023-08-11T05:46:52Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - Self-similarity Driven Scale-invariant Learning for Weakly Supervised
Person Search [66.95134080902717]
自己相似性駆動型スケール不変学習(SSL)という新しいワンステップフレームワークを提案する。
本稿では,ネットワークを前景と学習スケール不変の機能に集中させるための,マルチスケール・エクステンプラー・ブランチを提案する。
PRWおよびCUHK-SYSUデータベースの実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-25T04:48:11Z) - Sketch2Model: View-Aware 3D Modeling from Single Free-Hand Sketches [4.781615891172263]
初心者向けの高速な3Dモデリングを目指し、自由自在なスケッチから3Dメッシュを生成する問題を調査します。
曖昧さを克服するための視点仕様の重要性に対処し,新しい視点認識生成手法を提案する。
論文 参考訳(メタデータ) (2021-05-14T06:27:48Z) - Deep Bingham Networks: Dealing with Uncertainty and Ambiguity in Pose
Estimation [74.76155168705975]
Deep Bingham Networks (DBN)は、3Dデータに関するほぼすべての実生活アプリケーションで発生するポーズ関連の不確実性と曖昧性を扱うことができる。
DBNは、(i)異なる分布モードを生成できる多仮説予測ヘッドにより、アートダイレクトポーズ回帰ネットワークの状態を拡張する。
トレーニング中のモードや後方崩壊を回避し,数値安定性を向上させるための新しいトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-12-20T19:20:26Z) - Towards Visually Explaining Similarity Models [29.704524987493766]
本稿では,画像類似度予測のための勾配に基づく視覚的注意を生成する手法を提案する。
学習した機能の埋め込みにのみ依存することにより、我々のアプローチがCNNベースの類似性アーキテクチャのあらゆる種類に適用可能であることを示す。
得られたアテンションマップは、単に解釈可能性だけでなく、新たなトレーニング可能な制約でモデル学習プロセス自体に注入可能であることを示す。
論文 参考訳(メタデータ) (2020-08-13T17:47:41Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。