論文の概要: Visual resemblance and communicative context constrain the emergence of
graphical conventions
- arxiv url: http://arxiv.org/abs/2109.13861v1
- Date: Fri, 17 Sep 2021 23:05:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-03 10:40:19.737799
- Title: Visual resemblance and communicative context constrain the emergence of
graphical conventions
- Title(参考訳): 視覚的類似性とコミュニケーション的文脈はグラフィカルコンベンションの出現を制約する
- Authors: Robert D. Hawkins, Megumi Sano, Noah D. Goodman, Judith E. Fan
- Abstract要約: 描画は視覚世界についてコミュニケーションするための多彩な媒体を提供する。
視聴者は、自分の参照するエンティティ(つまり画像)にのみ類似する能力に基づいて、図面を理解できますか?
彼らはこれらの実体(記号)との共有だが任意の関連に基づく図面を理解できますか。
- 参考スコア(独自算出の注目度): 21.976382800327965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: From photorealistic sketches to schematic diagrams, drawing provides a
versatile medium for communicating about the visual world. How do images
spanning such a broad range of appearances reliably convey meaning? Do viewers
understand drawings based solely on their ability to resemble the entities they
refer to (i.e., as images), or do they understand drawings based on shared but
arbitrary associations with these entities (i.e., as symbols)? In this paper,
we provide evidence for a cognitive account of pictorial meaning in which both
visual and social information is integrated to support effective visual
communication. To evaluate this account, we used a communication task where
pairs of participants used drawings to repeatedly communicate the identity of a
target object among multiple distractor objects. We manipulated social cues
across three experiments and a full internal replication, finding pairs of
participants develop referent-specific and interaction-specific strategies for
communicating more efficiently over time, going beyond what could be explained
by either task practice or a pure resemblance-based account alone. Using a
combination of model-based image analyses and crowdsourced sketch annotations,
we further determined that drawings did not drift toward arbitrariness, as
predicted by a pure convention-based account, but systematically preserved
those visual features that were most distinctive of the target object. Taken
together, these findings advance theories of pictorial meaning and have
implications for how successful graphical conventions emerge via complex
interactions between visual perception, communicative experience, and social
context.
- Abstract(参考訳): フォトリアリスティックなスケッチから図式図まで、描画は視覚的な世界を伝えるための多彩な媒体を提供する。
このような幅広い外観にまたがる画像は、どのように意味を確実に伝えるのか?
視聴者は、参照するエンティティ(画像)にのみ類似する能力に基づいて描画を理解するか、または、これらのエンティティ(記号)との共有だが任意の関連に基づく描画を理解するか?
本稿では,視覚情報と社会情報の両方を統合し,効果的な視覚コミュニケーションを支援する画像意味の認知的説明の証拠を提供する。
この説明を評価するために、被験者のペアが複数の気晴らしオブジェクト間でターゲットオブジェクトのアイデンティティを繰り返し伝達するために、図面を用いたコミュニケーションタスクを用いた。
3つの実験と完全な内部複製のソーシャルキューを操作し、ペアの参加者が、タスクプラクティスや純粋に類似したアカウントだけで説明できるような、より効率的なコミュニケーションのためのレファレント特化およびインタラクション特化戦略を開発した。
さらに,モデルベース画像解析とクラウドソースによるスケッチアノテーションを組み合わせることで,純粋なコンベンションベースアカウントが予測したように,図面が任意性に向かって漂うのではなく,対象対象物に最も特徴的な視覚的特徴を体系的に保存した。
これらの知見は、視覚知覚、コミュニケーション経験、社会的文脈の複雑な相互作用を通じて、図的意味の理論を前進させ、どのようにグラフィカルな慣習が成功するかを示す。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Mind the GAP: Glimpse-based Active Perception improves generalization and sample efficiency of visual reasoning [0.7999703756441756]
視覚関係を理解する人間の能力は、AIシステムよりもはるかに優れている。
Glimpse-based Active Perception (GAP) システムを開発した。
その結果,GAPは即時的な視覚内容を超えた視覚関係の抽出に不可欠であることが示唆された。
論文 参考訳(メタデータ) (2024-09-30T11:48:11Z) - For a semiotic AI: Bridging computer vision and visual semiotics for computational observation of large scale facial image archives [3.418398936676879]
この研究は、ソーシャルメディアプラットフォームにおける画像の社会的・文化的影響を大規模に調査するためのフレームワークであるFRESCOを提示する。
FRESCOは、最新のコンピュータビジョン技術を用いて、画像を数値変数と分類変数に分解する。
このフレームワークは、線や色のような基本的な視覚的特徴を含むプラスティックレベル、特定の実体や概念を表す図形レベル、特にオブザーバーとオブザーバーの視点を構築することに焦点を当てた啓示レベルという3つのレベルにわたって画像を分析する。
論文 参考訳(メタデータ) (2024-07-03T16:57:38Z) - CLiC: Concept Learning in Context [54.81654147248919]
本稿では,視覚概念学習の最近の進歩に基づく。
ソースイメージから視覚概念を取得し、その後ターゲットイメージ内のオブジェクトに適用する。
概念学習のローカライズには,マスク内の概念と周囲の画像領域の両方を含むソフトマスクを用いる。
論文 参考訳(メタデータ) (2023-11-28T01:33:18Z) - Coarse-to-Fine Contrastive Learning in Image-Text-Graph Space for
Improved Vision-Language Compositionality [50.48859793121308]
対照的に訓練された視覚言語モデルは、視覚と言語表現学習において顕著な進歩を遂げた。
近年の研究では、対象、属性、関係性に対して構成的推論を行う能力に厳しい制限が強調されている。
論文 参考訳(メタデータ) (2023-05-23T08:28:38Z) - MetaCLUE: Towards Comprehensive Visual Metaphors Research [43.604408485890275]
本稿では,視覚的メタファの視覚的タスクであるMetaCLUEを紹介する。
我々は、アノテーションに基づいて、視覚と言語における最先端モデルの包括的分析を行う。
この研究が、人間のようなクリエイティブな能力を持つAIシステムを開発するための具体的なステップを提供することを期待している。
論文 参考訳(メタデータ) (2022-12-19T22:41:46Z) - Emergent Graphical Conventions in a Visual Communication Game [80.79297387339614]
人間は象徴的な言語とは別にグラフィカルなスケッチと通信する。
視覚コミュニケーションゲームをする2つのニューラルエージェントを介して、このような進化過程をモデル化し、シミュレートする第一歩を踏み出す。
我々は,コミュニケーションと抽象的なグラフィカルな慣行を成功させるために,エージェントを共同で進化させる新しい強化学習手法を考案した。
論文 参考訳(メタデータ) (2021-11-28T18:59:57Z) - Constellation: Learning relational abstractions over objects for
compositional imagination [64.99658940906917]
静的な視覚シーンのリレーショナル抽象化を学習するネットワークであるConstellationを紹介する。
この研究は、視覚的関係を明確に表現し、それらを複雑な認知手続きに使用するための第一歩である。
論文 参考訳(メタデータ) (2021-07-23T11:59:40Z) - Exploring Visual Engagement Signals for Representation Learning [56.962033268934015]
VisEは、クラスタ化されたエンゲージメント信号から派生した擬似ラベルにソーシャルイメージをマップする弱い教師付き学習アプローチである。
この方法でトレーニングされたモデルが、感情認識や政治的バイアス検出といった主観的なコンピュータビジョンタスクにどのように役立つかを研究する。
論文 参考訳(メタデータ) (2021-04-15T20:50:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。