論文の概要: Scones: Towards Conversational Authoring of Sketches
- arxiv url: http://arxiv.org/abs/2005.07781v1
- Date: Tue, 12 May 2020 00:02:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:52:41.652444
- Title: Scones: Towards Conversational Authoring of Sketches
- Title(参考訳): Scones: Sketchesの会話オーサリングを目指して
- Authors: Forrest Huang, Eldon Schoop, David Ha, John Canny
- Abstract要約: Sconesは、自然言語からセマンティック仕様で作成されたスケッチされたオブジェクトのシーンを反復的に生成する、新しいディープラーニングベースのシステムである。
Sconesはテキストベースのシーン修正タスクで最先端のパフォーマンスを上回る。
Sconesは、アートやデザインのスケッチを通じてアイデアを伝達するための、人間とループのアプリケーションをサポートする、自動化されたインテリジェントなシステムへの、初期段階のステップであると考えています。
- 参考スコア(独自算出の注目度): 17.226954145526808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Iteratively refining and critiquing sketches are crucial steps to developing
effective designs. We introduce Scones, a mixed-initiative,
machine-learning-driven system that enables users to iteratively author
sketches from text instructions. Scones is a novel deep-learning-based system
that iteratively generates scenes of sketched objects composed with semantic
specifications from natural language. Scones exceeds state-of-the-art
performance on a text-based scene modification task, and introduces a
mask-conditioned sketching model that can generate sketches with poses
specified by high-level scene information. In an exploratory user evaluation of
Scones, participants reported enjoying an iterative drawing task with Scones,
and suggested additional features for further applications. We believe Scones
is an early step towards automated, intelligent systems that support
human-in-the-loop applications for communicating ideas through sketching in art
and design.
- Abstract(参考訳): 反復的な精錬と批評のスケッチは、効果的なデザインを開発するための重要なステップである。
テキスト命令からスケッチを反復的に作成できる混合開始型機械学習駆動システムであるSconesを紹介する。
Sconesは、自然言語からセマンティック仕様で作成されたスケッチされたオブジェクトのシーンを反復的に生成する、新しいディープラーニングベースのシステムである。
sconesはテキストベースのシーン修正タスクで最先端のパフォーマンスを超え、高いレベルのシーン情報で指定されたポーズでスケッチを生成するマスクコンディショニングスケッチモデルを導入している。
sconesの探索的ユーザ評価では、参加者はsconesで反復的な描画タスクを楽しんだことを報告し、さらなるアプリケーションのための追加機能を提案した。
sconesは、アートやデザインのスケッチを通じてアイデアを伝えるために、ループ内人間アプリケーションをサポートする自動化されたインテリジェントなシステムへの第一歩だと考えています。
関連論文リスト
- SketchAgent: Language-Driven Sequential Sketch Generation [34.96339247291013]
SketchAgentは言語駆動でシーケンシャルなスケッチ生成方法である。
テキスト内例を通してモデルに導入した直感的なスケッチ言語を提案する。
脳卒中をストロークで描くことで、スケッチに固有の進化的でダイナミックな性質を捉えます。
論文 参考訳(メタデータ) (2024-11-26T18:32:06Z) - Sketch2Code: Evaluating Vision-Language Models for Interactive Web Design Prototyping [55.98643055756135]
初歩的なスケッチのWebページプロトタイプへの変換を自動化する上で,最先端のビジョン言語モデル(VLM)を評価するベンチマークであるSketch2Codeを紹介した。
我々は、既存のVLMではSketch2Codeが困難であることを示す10の商用およびオープンソースモデルを分析した。
UI/UXの専門家によるユーザ調査では、受動的フィードバックの受信よりも、積極的に質問を行うのがかなり好まれている。
論文 参考訳(メタデータ) (2024-10-21T17:39:49Z) - SketchTriplet: Self-Supervised Scenarized Sketch-Text-Image Triplet Generation [6.39528707908268]
シーンスケッチ用の大規模なペアデータセットは引き続き欠如している。
本稿では,既存のシーンスケッチに依存しないシーンスケッチ生成のための自己教師型手法を提案する。
シーンスケッチを中心にした大規模なデータセットをコントリビュートし、セマンティックに一貫した「テキスト・スケッチ・イメージ」三つ子を含む。
論文 参考訳(メタデータ) (2024-05-29T06:43:49Z) - SketchDreamer: Interactive Text-Augmented Creative Sketch Ideation [111.2195741547517]
画像の画素表現に基づいて訓練されたテキスト条件付き拡散モデルを用いて,制御されたスケッチを生成する手法を提案する。
我々の目標は、プロでないユーザにスケッチを作成させ、一連の最適化プロセスを通じて物語をストーリーボードに変換することです。
論文 参考訳(メタデータ) (2023-08-27T19:44:44Z) - Towards Practicality of Sketch-Based Visual Understanding [15.30818342202786]
スケッチは、先史時代から視覚的な物体を概念化し、描写するために用いられてきた。
この論文は、スケッチに基づく視覚的理解をより実践的に進めることを目的としている。
論文 参考訳(メタデータ) (2022-10-27T03:12:57Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - FS-COCO: Towards Understanding of Freehand Sketches of Common Objects in
Context [112.07988211268612]
フリーハンドシーンスケッチの最初のデータセットであるFS-COCOを用いてスケッチ研究を進めた。
本データセットは,100名の非専門家による1点あたりの時空間情報付きフリーハンドシーンベクトルスケッチからなる。
フリーハンドシーンのスケッチやスケッチのキャプションからきめ細かい画像検索の問題が初めて研究された。
論文 参考訳(メタデータ) (2022-03-04T03:00:51Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。