論文の概要: SketchRef: A Benchmark Dataset and Evaluation Metrics for Automated Sketch Synthesis
- arxiv url: http://arxiv.org/abs/2408.08623v1
- Date: Fri, 16 Aug 2024 09:32:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-08-19 16:07:32.362516
- Title: SketchRef: A Benchmark Dataset and Evaluation Metrics for Automated Sketch Synthesis
- Title(参考訳): SketchRef: 自動スケッチ合成のためのベンチマークデータセットと評価指標
- Authors: Xingyue Lin, Xingjian Hu, Shuai Peng, Jianhua Zhu, Liangcai Gao,
- Abstract要約: スケッチ合成の評価方法は、統一されたベンチマークデータセットの欠如、認識可能性のための分類精度の過度な信頼、および異なるレベルの単純化によるスケッチの不公平な評価のために不十分である。
SketchRefは、動物、人間の顔、人体、一般的な物体の4つのカテゴリからなるベンチマークデータセットである。
スケッチと参照写真の構造的整合性を測定するには,分類精度が不十分であることを考慮し,構造レベルの認識性を評価するためにポーズ推定を利用する平均的オブジェクトキーポイント類似度(mOKS)指標を提案する。
- 参考スコア(独自算出の注目度): 6.832790933688975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sketch, a powerful artistic technique to capture essential visual information about real-world objects, is increasingly gaining attention in the image synthesis field. However, evaluating the quality of synthesized sketches presents unique unsolved challenges. Current evaluation methods for sketch synthesis are inadequate due to the lack of a unified benchmark dataset, over-reliance on classification accuracy for recognizability, and unfair evaluation of sketches with different levels of simplification. To address these issues, we introduce SketchRef, a benchmark dataset comprising 4 categories of reference photos--animals, human faces, human bodies, and common objects--alongside novel evaluation metrics. Considering that classification accuracy is insufficient to measure the structural consistency between a sketch and its reference photo, we propose the mean Object Keypoint Similarity (mOKS) metric, utilizing pose estimation to assess structure-level recognizability. To ensure fair evaluation sketches with different simplification levels, we propose a recognizability calculation method constrained by simplicity. We also collect 8K responses from art enthusiasts, validating the effectiveness of our proposed evaluation methods. We hope this work can provide a comprehensive evaluation of sketch synthesis algorithms, thereby aligning their performance more closely with human understanding.
- Abstract(参考訳): 現実の物体に関する重要な視覚情報をキャプチャする強力な芸術的手法であるSketchは、画像合成分野においてますます注目を集めている。
しかし、合成スケッチの品質を評価することは、ユニークな未解決の課題を呈する。
統合ベンチマークデータセットの欠如、認識可能性のための分類精度の過度な信頼、および異なるレベルの単純化によるスケッチの不公平な評価により、スケッチ合成の現在の評価方法が不十分である。
これらの問題に対処するため、SketchRefは、動物、人間の顔、人体、一般的な物体の4つのカテゴリからなるベンチマークデータセットである。
スケッチと参照写真の構造的整合性を測定するには,分類精度が不十分であることを考慮し,構造レベルの認識性を評価するためにポーズ推定を利用する平均的オブジェクトキーポイント類似度(mOKS)指標を提案する。
単純化レベルが異なる公正な評価スケッチを確保するため,単純さに制約された認識可能性計算法を提案する。
また,アート愛好家から8K応答を収集し,提案手法の有効性を検証した。
この研究によって、スケッチ合成アルゴリズムの総合的な評価が得られ、それによって、その性能が人間の理解とより密に一致できることを願っている。
関連論文リスト
- Hybrid Primal Sketch: Combining Analogy, Qualitative Representations, and Computer Vision for Scene Understanding [7.687215328455751]
われわれはMarrのPrimal Sketchにインスパイアされた新しいフレームワークを開発した。
Hybrid Primal Sketchは、コンピュータビジョンコンポーネントをアンサンブルに結合してスケッチのようなエンティティを生成する。
本稿では、我々の理論的枠組みを概説し、いくつかの実験を要約し、図理解に関する新たな実験の概要を述べる。
論文 参考訳(メタデータ) (2024-07-05T20:44:35Z) - CrossScore: Towards Multi-View Image Evaluation and Scoring [24.853612457257697]
相互参照画像品質評価法は画像評価景観のギャップを埋める。
本手法は,地上の真理参照を必要とせず,精度の高い画像品質評価を可能にする。
論文 参考訳(メタデータ) (2024-04-22T17:59:36Z) - Advancing Generative Model Evaluation: A Novel Algorithm for Realistic
Image Synthesis and Comparison in OCR System [1.2289361708127877]
本研究は、生成モデル分野における重要な課題、特に合成画像の生成と評価について論じる。
合成画像のリアリズムを客観的に評価するための先駆的アルゴリズムを提案する。
我々のアルゴリズムは、アラビア文字の手書き数字の現実的な画像の生成と評価の課題に対処するために特に適している。
論文 参考訳(メタデータ) (2024-02-27T04:53:53Z) - SEVA: Leveraging sketches to evaluate alignment between human and
machine visual abstraction [19.70530050403922]
スケッチは、スパースだが有意義な抽象イメージを作成するための強力なツールである。
現在の視覚アルゴリズムは様々な視覚的タスクにおいて高い性能を達成している。
スケッチがどの程度人間的な方法で理解されているかは、まだ不明である。
論文 参考訳(メタデータ) (2023-12-05T13:54:55Z) - A Fine-Grained Image Description Generation Method Based on Joint
Objectives [7.565093400979752]
本稿では, 共同目的物に基づく微細な画像記述生成モデルを提案する。
我々は、記述繰り返しと省略を扱う際のモデルの性能をより直感的に評価するために、新しいオブジェクトベースの評価指標を導入する。
実験の結果,提案手法はCIDErの評価基準を大幅に改善することが示された。
論文 参考訳(メタデータ) (2023-09-02T03:22:39Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - TexPose: Neural Texture Learning for Self-Supervised 6D Object Pose
Estimation [55.94900327396771]
合成データから6次元オブジェクトポーズ推定のためのニューラルネットワークによるテクスチャ学習を提案する。
実画像からオブジェクトの現実的なテクスチャを予測することを学ぶ。
画素完全合成データからポーズ推定を学習する。
論文 参考訳(メタデータ) (2022-12-25T13:36:32Z) - A Visual Navigation Perspective for Category-Level Object Pose
Estimation [41.60364392204057]
本稿では,単一の単眼画像に基づくカテゴリレベルのオブジェクトポーズ推定について検討する。
ポーズ認識生成モデルの最近の進歩は、分析バイシンセシスを用いてこの課題に対処する方法を舗装している。
論文 参考訳(メタデータ) (2022-03-25T10:57:37Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - TISE: A Toolbox for Text-to-Image Synthesis Evaluation [9.092600296992925]
単目的と多目的のテキスト・ツー・イメージ合成のための最先端手法の研究を行う。
これらの手法を評価するための共通フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-02T16:39:35Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - Supervised Video Summarization via Multiple Feature Sets with Parallel
Attention [4.931399476945033]
視覚コンテンツと動きの3つの特徴セットを組み合わせて重要度を予測する新しいモデルアーキテクチャを提案する。
提案アーキテクチャは,動作特徴と(静止した)視覚的内容を表す特徴を融合する前に,注意機構を利用する。
SumMeとTVSumの2つのよく知られたデータセットについて、包括的な実験的評価が報告されている。
論文 参考訳(メタデータ) (2021-04-23T10:46:35Z) - Revisiting The Evaluation of Class Activation Mapping for
Explainability: A Novel Metric and Experimental Analysis [54.94682858474711]
クラスアクティベーションマッピング(cam)アプローチは、アクティベーションマップの平均を重み付けすることで、効果的な可視化を提供する。
説明マップを定量化するための新しいメトリクスセットを提案し、より効果的な方法を示し、アプローチ間の比較を簡素化します。
論文 参考訳(メタデータ) (2021-04-20T21:34:24Z) - Unifying Remote Sensing Image Retrieval and Classification with Robust
Fine-tuning [3.6526118822907594]
新しい大規模トレーニングおよびテストデータセットであるSF300で、リモートセンシングイメージの検索と分類を統一することを目指しています。
本研究では,ImageNetの事前学習ベースラインと比較して,9つのデータセットの検索性能と分類性能を体系的に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-26T11:01:30Z) - Cross-Modal Hierarchical Modelling for Fine-Grained Sketch Based Image
Retrieval [147.24102408745247]
我々は、これまで見過ごされてきたスケッチのさらなる特性、すなわち、詳細レベルの階層性について研究する。
本稿では,スケッチ固有の階層を育成し,それを利用して,対応する階層レベルでのスケッチと写真とのマッチングを行う新しいネットワークを設計する。
論文 参考訳(メタデータ) (2020-07-29T20:50:25Z) - On Learning Semantic Representations for Million-Scale Free-Hand
Sketches [146.52892067335128]
百万のフリーハンドスケッチのための学習意味表現について研究する。
スケッチを表現するために,デュアルブランチCNNRNNネットワークアーキテクチャを提案する。
ハッシュ検索とゼロショット認識におけるスケッチ指向の意味表現の学習について検討する。
論文 参考訳(メタデータ) (2020-07-07T15:23:22Z) - A Revised Generative Evaluation of Visual Dialogue [80.17353102854405]
本稿では,VisDialデータセットの改訂評価手法を提案する。
モデルが生成した回答と関連する回答の集合のコンセンサスを測定する。
DenseVisDialとして改訂された評価スキームのこれらのセットとコードをリリースする。
論文 参考訳(メタデータ) (2020-04-20T13:26:45Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。