論文の概要: Do Time Constraints Re-Prioritize Attention to Shapes During Visual
Photo Inspection?
- arxiv url: http://arxiv.org/abs/2104.06984v1
- Date: Wed, 14 Apr 2021 17:07:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 14:35:32.217216
- Title: Do Time Constraints Re-Prioritize Attention to Shapes During Visual
Photo Inspection?
- Title(参考訳): 時間制約は、画像検査中の形状に対する注意を再び刺激するか?
- Authors: Yiyuan Yang, Kenneth Li, Fernanda Eliott, Maithilee Kunda
- Abstract要約: 視覚写真検査の際,形状に優先した注意を喚起する新たなデータ収集手法を提案する。
個人,イメージタイプ,時間的制約による視覚的注意パターンの変化について検討する。
- 参考スコア(独自算出の注目度): 64.94009515033984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: People's visual experiences of the world are easy to carve up and examine
along natural language boundaries, e.g., by category labels, attribute labels,
etc. However, it is more difficult to elicit detailed visuospatial information
about what a person attends to, e.g., the specific shape of a tree. Paying
attention to the shapes of things not only feeds into well defined tasks like
visual category learning, but it is also what enables us to differentiate
similarly named objects and to take on creative visual pursuits, like
poetically describing the shape of a thing, or finding shapes in the clouds or
stars. We use a new data collection method that elicits people's prioritized
attention to shapes during visual photo inspection by asking them to trace
important parts of the image under varying time constraints. Using data
collected via crowdsourcing over a set of 187 photographs, we examine changes
in patterns of visual attention across individuals, across image types, and
across time constraints.
- Abstract(参考訳): 世界の人々の視覚的体験は、例えばカテゴリラベルや属性ラベルなどによって、自然言語境界に沿って彫り上げ、調査することが容易である。
しかし、例えば樹木の特定の形など、ある人が何に出席しているかを詳細に知ることはより困難である。
物の形状に注意を払えば、視覚的なカテゴリ学習のような明確に定義されたタスクに目を向けるだけでなく、同じような名前のついたオブジェクトを区別したり、物の形を詩的に記述したり、雲や星の形状を見つけるといった創造的な視覚的な追求にも役立ちます。
本研究では,画像の重要部分を時間的制約で追跡することにより,視覚的写真検査における人物の注意を形状に反映する新たなデータ収集手法を提案する。
187枚の写真からクラウドソーシングによって収集したデータを用いて,個人,画像タイプ,時間的制約による視覚的注意パターンの変化を検討した。
関連論文リスト
- Be Yourself: Bounded Attention for Multi-Subject Text-to-Image Generation [60.943159830780154]
本稿では,サンプリングプロセスにおける情報フローをバウンドする訓練不要な手法である境界注意法を紹介する。
提案手法は,与えられたプロンプトとレイアウトの整合性を向上する複数の主題の生成に有効であることを示す。
論文 参考訳(メタデータ) (2024-03-25T17:52:07Z) - An Image-based Typology for Visualization [23.716718517642878]
本稿では,画像からの視覚表現の質的解析結果について述べる。
定義群を10種類に分類した。
我々は、6,833枚のタグ付き画像のデータセットと、ラベル付き画像の大規模な集合を探索および分析するために使用できるオンラインツールを提供する。
論文 参考訳(メタデータ) (2024-03-07T04:33:42Z) - GROOViST: A Metric for Grounding Objects in Visual Storytelling [3.650221968508535]
我々は、画像に示される実体について、物語がどの程度にあるかを評価することに集中する。
本稿では,視覚的接地における相互依存,時間的ミスアライメント,人間の直感を考慮に入れた新しい評価ツールGROOViSTを提案する。
論文 参考訳(メタデータ) (2023-10-26T20:27:16Z) - Sketch2Saliency: Learning to Detect Salient Objects from Human Drawings [99.9788496281408]
本研究では,スケッチを弱いラベルとして使用して,画像中の有能な物体を検出する方法について検討する。
これを実現するために,与えられた視覚写真に対応する逐次スケッチ座標を生成することを目的としたフォト・ツー・スケッチ生成モデルを提案する。
テストは、私たちの仮説を証明し、スケッチベースの唾液度検出モデルが、最先端技術と比較して、競争力のあるパフォーマンスを提供する方法を明確にします。
論文 参考訳(メタデータ) (2023-03-20T23:46:46Z) - Self-Supervised Visual Representation Learning on Food Images [6.602838826255494]
既存の深層学習手法は、食品画像の人間のアノテーションに基づいて、下流タスクの視覚的表現を学習する。
実生活のほとんどの食品画像はラベルなしで取得され、データアノテーションには多くの時間と人的労力が必要です。
本稿では,食品画像における自己指導型学習手法の実装と分析に焦点をあてる。
論文 参考訳(メタデータ) (2023-03-16T02:31:51Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Visual communication of object concepts at different levels of
abstraction [0.6922389632860545]
異なる抽象レベルでオブジェクトを描画することは感覚情報と表現目標の両方に依存していることを示す。
その結果,ラベル付きカテゴリー図は基本レベルでは最も認識しにくいが,写真用例図は認識しにくいことがわかった。
論文 参考訳(メタデータ) (2021-06-05T02:13:31Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z) - Improving Object Detection with Selective Self-supervised Self-training [62.792445237541145]
本研究では,Web画像を利用した人為的対象検出データセットの強化について検討する。
画像と画像の検索によりWebイメージを検索し、他の検索手法に比べて、キュレートされたデータからのドメインシフトが少なくなる。
画像分類のためのラベルのないデータを探索する2つの並列処理をモチベーションとした新しい学習手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T18:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。