論文の概要: SketchEmbedNet: Learning Novel Concepts by Imitating Drawings
- arxiv url: http://arxiv.org/abs/2009.04806v4
- Date: Tue, 22 Jun 2021 19:45:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 07:01:21.961686
- Title: SketchEmbedNet: Learning Novel Concepts by Imitating Drawings
- Title(参考訳): SketchEmbedNet: 描画を省略して新しい概念を学ぶ
- Authors: Alexander Wang, Mengye Ren, Richard S. Zemel
- Abstract要約: モデルを用いて画像のスケッチを作成することによって学習した画像表現の特性について検討する。
この生成型クラスに依存しないモデルでは,新規な例,クラス,さらには新規なデータセットからの画像の情報埋め込みが,数ショットで生成されることが示されている。
- 参考スコア(独自算出の注目度): 125.45799722437478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sketch drawings capture the salient information of visual concepts. Previous
work has shown that neural networks are capable of producing sketches of
natural objects drawn from a small number of classes. While earlier approaches
focus on generation quality or retrieval, we explore properties of image
representations learned by training a model to produce sketches of images. We
show that this generative, class-agnostic model produces informative embeddings
of images from novel examples, classes, and even novel datasets in a few-shot
setting. Additionally, we find that these learned representations exhibit
interesting structure and compositionality.
- Abstract(参考訳): スケッチ描画は視覚概念の健全な情報をキャプチャする。
前回の研究では、ニューラルネットワークが少数のクラスから自然オブジェクトのスケッチを生成できることが示されている。
従来の手法では生成品質や検索に焦点をあてるが,画像のスケッチを作成するためにモデルを訓練して学習した画像表現の特性について検討する。
この生成型クラスに依存しないモデルでは,新規な例,クラス,さらには新規なデータセットから,数ショットで画像の情報埋め込みを生成する。
さらに、これらの学習された表現は興味深い構造と構成性を示す。
関連論文リスト
- Unsupervised Compositional Concepts Discovery with Text-to-Image
Generative Models [80.75258849913574]
本稿では、異なる画像の集合を考えると、各画像を表す生成概念を発見できるかという逆問題を考える。
本稿では,画像の集合から生成概念を抽出し,絵画やオブジェクト,キッチンシーンからの照明から異なる美術スタイルを分離し,イメージネット画像から得られる画像クラスを発見するための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:02:15Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - Doodle It Yourself: Class Incremental Learning by Drawing a Few Sketches [100.3966994660079]
本稿では,(i)ドメイン不変学習の勾配コンセンサス,(ii)古いクラス情報を保存するための知識蒸留,(iii)古いクラスと新しいクラスのメッセージパッシングのためのグラフアテンションネットワークについて述べる。
FSCILのコンテキストにおいて,スケッチはテキストよりもクラスサポートが優れていることを示す。
論文 参考訳(メタデータ) (2022-03-28T15:35:33Z) - Scene Designer: a Unified Model for Scene Search and Synthesis from
Sketch [7.719705312172286]
シーンデザイナ(Scene Designer)は、シーン構成の自由なスケッチを用いて画像の検索と生成を行う新しい方法である。
我々のコアコントリビューションは、画像に一致するスケッチされた合成のためのクロスモーダル検索埋め込みと、レイアウト合成のためのオブジェクト埋め込みの両方を学ぶための単一の統一モデルである。
論文 参考訳(メタデータ) (2021-08-16T21:40:16Z) - Sketch-BERT: Learning Sketch Bidirectional Encoder Representation from
Transformers by Self-supervised Learning of Sketch Gestalt [125.17887147597567]
我々は、トランスフォーマー(Sketch-BERT)からのSketch BiBERT表現の学習モデルを提案する。
BERTをドメインのスケッチに一般化し、新しいコンポーネントと事前学習アルゴリズムを提案する。
Sketch-BERTの学習表現は,スケッチ認識,スケッチ検索,スケッチゲットといった下流タスクの性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2020-05-19T01:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。