論文の概要: Exploring Crowd Co-creation Scenarios for Sketches
- arxiv url: http://arxiv.org/abs/2005.07328v2
- Date: Fri, 22 May 2020 02:12:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:28:51.849241
- Title: Exploring Crowd Co-creation Scenarios for Sketches
- Title(参考訳): スケッチのクラウド共同制作シナリオの検討
- Authors: Devi Parikh and C. Lawrence Zitnick
- Abstract要約: 我々は、人間のみの共同創造シナリオについて研究する。
それぞれのシナリオの目標は、シンプルなWebインターフェースを使用してデジタルスケッチを作成することです。
複数の人間が反復的にストロークを付加し、最高の追加に投票することで、最高の創造性を持つスケッチが得られることが分かりました。
- 参考スコア(独自算出の注目度): 49.578304437046384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a first step towards studying the ability of human crowds and machines to
effectively co-create, we explore several human-only collaborative co-creation
scenarios. The goal in each scenario is to create a digital sketch using a
simple web interface. We find that settings in which multiple humans
iteratively add strokes and vote on the best additions result in the sketches
with highest perceived creativity (value + novelty). Lack of collaboration
leads to a higher variance in quality and lower novelty or surprise.
Collaboration without voting leads to high novelty but low quality.
- Abstract(参考訳): ヒトの群集と機械が効果的に共同創造する能力を研究するための第一歩として、人間のみの共同創造シナリオについて検討する。
各シナリオの目標は、シンプルなWebインターフェースを使用してデジタルスケッチを作成することです。
複数の人間が反復的にストロークを付加し、最高の追加に投票すると、最高の創造性(価値+新規性)を持つスケッチが生まれる。
コラボレーションの欠如により、品質のばらつきが高まり、ノベルティやサプライズが低下する。
投票なしのコラボレーションは、高いノベルティと低い品質につながる。
関連論文リスト
- CoMix: A Comprehensive Benchmark for Multi-Task Comic Understanding [14.22900011952181]
我々は,コミック分析におけるモデルのマルチタスク能力を評価するために,新しいベンチマークであるCoMixを導入する。
本ベンチマークは,マルチタスク評価をサポートするアノテーションを拡張した既存の3つのデータセットからなる。
マンガスタイルのデータの過剰表現を緩和するために、慎重に選択されたアメリカの漫画スタイルの本を新たにデータセットとして組み込んだ。
論文 参考訳(メタデータ) (2024-07-04T00:07:50Z) - UniHuman: A Unified Model for Editing Human Images in the Wild [49.896715833075106]
実環境における画像編集の複数の側面に対処する統一モデルUniHumanを提案する。
モデルの生成品質と一般化能力を向上させるために,人間の視覚エンコーダからのガイダンスを利用する。
ユーザスタディでは、UniHumanは平均して77%のケースでユーザに好まれる。
論文 参考訳(メタデータ) (2023-12-22T05:00:30Z) - Beyond Domain Gap: Exploiting Subjectivity in Sketch-Based Person
Retrieval [40.257842079152255]
人物再識別(re-ID)には、密集したカメラが必要である。
スケッチをスケッチ再識別(Sketch re-ID)として用いた従来研究による定義
マルチウィットネス記述による新しいデータセットのポーズをモデル化し,検討する。
4,763枚以上のスケッチと32,668枚の写真が含まれており、Sketch re-IDデータセットとしては最大である。
論文 参考訳(メタデータ) (2023-09-15T12:59:01Z) - SketchDreamer: Interactive Text-Augmented Creative Sketch Ideation [111.2195741547517]
画像の画素表現に基づいて訓練されたテキスト条件付き拡散モデルを用いて,制御されたスケッチを生成する手法を提案する。
我々の目標は、プロでないユーザにスケッチを作成させ、一連の最適化プロセスを通じて物語をストーリーボードに変換することです。
論文 参考訳(メタデータ) (2023-08-27T19:44:44Z) - Compositional 3D Human-Object Neural Animation [93.38239238988719]
人間と物体の相互作用(HOI)は、人間中心の視覚生成、AR/VR、ロボット工学などの人間中心のシーン理解アプリケーションに不可欠である。
本稿では,HoIアニメーションにおけるこの課題について,作曲の観点から考察する。
我々は、暗黙のニューラル表現に基づいてHOIダイナミクスをモデル化し、レンダリングするために、ニューラル・ヒューマン・オブジェクトの変形を採用する。
論文 参考訳(メタデータ) (2023-04-27T10:04:56Z) - Novel View Synthesis of Humans using Differentiable Rendering [50.57718384229912]
我々は新しいポーズで人々の新しい視点を合成するための新しいアプローチを提案する。
我々の合成はヒトの骨格構造を表す拡散ガウス原始体を用いる。
これらのプリミティブをレンダリングすると、高次元の潜像が得られ、デコーダネットワークによってRGBイメージに変換される。
論文 参考訳(メタデータ) (2023-03-28T10:48:33Z) - Creative Sketch Generation [48.16835161875747]
クリエイティブなスケッチのデータセットであるCreative BirdsとCreative Creaturesの2つを紹介します。
DoodlerGAN (Generative Adrial Network, GAN) を提案する。
人間の研究と同様に定量的評価は、我々のアプローチによって生成されたスケッチは、既存のアプローチよりも創造的で高品質であることを示している。
論文 参考訳(メタデータ) (2020-11-19T18:57:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。