論文の概要: Visual communication of object concepts at different levels of
abstraction
- arxiv url: http://arxiv.org/abs/2106.02775v1
- Date: Sat, 5 Jun 2021 02:13:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:11:12.009269
- Title: Visual communication of object concepts at different levels of
abstraction
- Title(参考訳): 抽象レベルの違いによる物体概念の視覚的コミュニケーション
- Authors: Justin Yang and Judith E. Fan
- Abstract要約: 異なる抽象レベルでオブジェクトを描画することは感覚情報と表現目標の両方に依存していることを示す。
その結果,ラベル付きカテゴリー図は基本レベルでは最も認識しにくいが,写真用例図は認識しにくいことがわかった。
- 参考スコア(独自算出の注目度): 0.6922389632860545
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: People can produce drawings of specific entities (e.g., Garfield), as well as
general categories (e.g., "cat"). What explains this ability to produce such
varied drawings of even highly familiar object concepts? We hypothesized that
drawing objects at different levels of abstraction depends on both sensory
information and representational goals, such that drawings intended to portray
a recently seen object preserve more detail than those intended to represent a
category. Participants drew objects cued either with a photo or a category
label. For each cue type, half the participants aimed to draw a specific
exemplar; the other half aimed to draw the category. We found that label-cued
category drawings were the most recognizable at the basic level, whereas
photo-cued exemplar drawings were the least recognizable. Together, these
findings highlight the importance of task context for explaining how people use
drawings to communicate visual concepts in different ways.
- Abstract(参考訳): 特定の実体(例えばガーフィールド)や一般のカテゴリ(例えば「キャット」)の図面を作成できる。
この能力は、非常に親しみやすい概念の様々な図面を作成できるのか?
我々は,物体を異なるレベルの抽象レベルで描画することは感覚情報と表現目標の両方に依存すると仮定した。
参加者は写真やカテゴリのラベルを付けたオブジェクトを描画した。
各キュータイプについて、参加者の半数は特定の模範を描き、残りの半分はカテゴリを描き出そうとした。
その結果,ラベル付きカテゴリー図は基本レベルでは最も認識しにくいが,写真用例図は認識しにくいことがわかった。
これらの知見は、視覚的概念を様々な方法で伝達するために人々がどのように絵を使うかを説明するためのタスクコンテキストの重要性を強調している。
関連論文リスト
- Enhance Sketch Recognition's Explainability via Semantic Component-Level
Parsing [10.76791271745353]
提案した構造化スケッチ認識ネットワークに,セマンティックコンポーネントレベルのメモリモジュールを構築し,組み込む。
各スケッチカテゴリのセマンティックコンポーネントを表すメモリキーを自己学習し、認識ネットワークの説明可能性を高める。
SPGとSketchIMEデータセットの実験は、メモリモジュールの柔軟性と認識ネットワークの説明可能性を示している。
論文 参考訳(メタデータ) (2023-12-13T03:33:16Z) - CLiC: Concept Learning in Context [54.81654147248919]
本稿では,視覚概念学習の最近の進歩に基づく。
ソースイメージから視覚概念を取得し、その後ターゲットイメージ内のオブジェクトに適用する。
概念学習のローカライズには,マスク内の概念と周囲の画像領域の両方を含むソフトマスクを用いる。
論文 参考訳(メタデータ) (2023-11-28T01:33:18Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - Towards Practicality of Sketch-Based Visual Understanding [15.30818342202786]
スケッチは、先史時代から視覚的な物体を概念化し、描写するために用いられてきた。
この論文は、スケッチに基づく視覚的理解をより実践的に進めることを目的としている。
論文 参考訳(メタデータ) (2022-10-27T03:12:57Z) - Extracting associations and meanings of objects depicted in artworks
through bi-modal deep networks [3.1542695050861544]
本稿では,深層ネットワークに基づく新たなバイモーダルシステムを提案する。
本システムでは,画像と関連するテキストの両方を処理し,個々のオブジェクトのイメージ,それらのアイデンティティ,それらが意味する抽象的な意味の関連を学習する。
論文 参考訳(メタデータ) (2022-03-14T12:10:48Z) - Visual resemblance and communicative context constrain the emergence of
graphical conventions [21.976382800327965]
描画は視覚世界についてコミュニケーションするための多彩な媒体を提供する。
視聴者は、自分の参照するエンティティ(つまり画像)にのみ類似する能力に基づいて、図面を理解できますか?
彼らはこれらの実体(記号)との共有だが任意の関連に基づく図面を理解できますか。
論文 参考訳(メタデータ) (2021-09-17T23:05:36Z) - Do Time Constraints Re-Prioritize Attention to Shapes During Visual
Photo Inspection? [64.94009515033984]
視覚写真検査の際,形状に優先した注意を喚起する新たなデータ収集手法を提案する。
個人,イメージタイプ,時間的制約による視覚的注意パターンの変化について検討する。
論文 参考訳(メタデータ) (2021-04-14T17:07:27Z) - SketchEmbedNet: Learning Novel Concepts by Imitating Drawings [125.45799722437478]
モデルを用いて画像のスケッチを作成することによって学習した画像表現の特性について検討する。
この生成型クラスに依存しないモデルでは,新規な例,クラス,さらには新規なデータセットからの画像の情報埋め込みが,数ショットで生成されることが示されている。
論文 参考訳(メタデータ) (2020-08-27T16:43:28Z) - Cross-Modal Hierarchical Modelling for Fine-Grained Sketch Based Image
Retrieval [147.24102408745247]
我々は、これまで見過ごされてきたスケッチのさらなる特性、すなわち、詳細レベルの階層性について研究する。
本稿では,スケッチ固有の階層を育成し,それを利用して,対応する階層レベルでのスケッチと写真とのマッチングを行う新しいネットワークを設計する。
論文 参考訳(メタデータ) (2020-07-29T20:50:25Z) - Captioning Images with Novel Objects via Online Vocabulary Expansion [62.525165808406626]
新規なオブジェクトを含む画像から記述を生成するための低コストな手法を提案する。
本稿では,少数の画像特徴量から推定したオブジェクトの単語埋め込みを用いて,新たなオブジェクトで画像を説明する手法を提案する。
論文 参考訳(メタデータ) (2020-03-06T16:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。