論文の概要: Quantitative analysis of visual representation of sign elements in
COVID-19 context
- arxiv url: http://arxiv.org/abs/2112.08219v1
- Date: Wed, 15 Dec 2021 15:54:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 17:28:57.614367
- Title: Quantitative analysis of visual representation of sign elements in
COVID-19 context
- Title(参考訳): COVID-19コンテキストにおける手話要素の視覚的表現の定量的解析
- Authors: Mar\'ia Jes\'us Cano-Mart\'inez and Miguel Carrasco and Joaqu\'in
Sandoval and C\'esar Gonz\'alez-Mart\'in
- Abstract要約: 本稿では, コンピュータ解析を用いて, 流行に言及した視覚的創造物に使用される要素を定量的に分析することを提案する。
The Covid Art MuseumのInstagramアカウントにまとめられた画像は、グローバルイベントに関する主観的な体験を表すために使用されるさまざまな要素を分析するために使用される。
本研究は, 画像に繰り返される要素が, 物語を創出するための要素と, サンプルで確立された関連関係を明らかにする。
- 参考スコア(独自算出の注目度): 2.9409535911474967
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Representation is the way in which human beings re-present the reality of
what is happening, both externally and internally. Thus, visual representation
as a means of communication uses elements to build a narrative, just as spoken
and written language do. We propose using computer analysis to perform a
quantitative analysis of the elements used in the visual creations that have
been produced in reference to the epidemic, using the images compiled in The
Covid Art Museum's Instagram account to analyze the different elements used to
represent subjective experiences with regard to a global event. This process
has been carried out with techniques based on machine learning to detect
objects in the images so that the algorithm can be capable of learning and
detecting the objects contained in each study image. This research reveals that
the elements that are repeated in images to create narratives and the relations
of association that are established in the sample, concluding that, despite the
subjectivity that all creation entails, there are certain parameters of shared
and reduced decisions when it comes to selecting objects to be included in
visual representations
- Abstract(参考訳): 表現(Representation)とは、人間が外部と内部の両方で起きていることの現実を表わす方法である。
このように、コミュニケーションの手段としての視覚表現は、話し言葉や書き言葉と同じように、要素を使って物語を構築する。
本研究は、covid-19 美術館のinstagram アカウントで収集した画像を用いて、流行に関連づけられた視覚創造に使用される要素の定量的分析を行うためにコンピュータ解析を用いて、世界規模のイベントにおける主観的体験を表現するために使用されるさまざまな要素を分析する。
このプロセスは、機械学習に基づいて画像中の物体を検知し、アルゴリズムが各研究画像に含まれる物体を学習し、検出することができるようにしている。
本研究は,物語を創造するために画像に繰り返される要素と,サンプルに確立された関連の関係を明らかにしたものであり,すべての創作が伴う主観性にもかかわらず,視覚的表現に含まれる対象の選択に関して,共有された決定のパラメータが存在することを結論づける。
関連論文リスト
- An Image-based Typology for Visualization [23.716718517642878]
本稿では,画像からの視覚表現の質的解析結果について述べる。
定義群を10種類に分類した。
我々は、6,833枚のタグ付き画像のデータセットと、ラベル付き画像の大規模な集合を探索および分析するために使用できるオンラインツールを提供する。
論文 参考訳(メタデータ) (2024-03-07T04:33:42Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - Exploring Affordance and Situated Meaning in Image Captions: A
Multimodal Analysis [1.124958340749622]
Flickr30kデータセットのイメージに5つの知覚特性(Affordance, Perceptual Salience, Object Number, Cue Gazeing, Ecological Niche Association (ENA))を付加した注釈を付ける。
以上の結果より,ギブソニアの空白画像は,テコールの空白画像と比較して,「保持動詞」と「コンテナ名詞」を含む字幕の頻度が高いことが明らかとなった。
論文 参考訳(メタデータ) (2023-05-24T01:30:50Z) - Compositional Scene Modeling with Global Object-Centric Representations [44.43366905943199]
人間は、メモリ内の標準画像に基づいて閉塞された部分を完了させることで、たとえ閉塞物が存在するとしても、同じ物体を容易に識別することができる。
本稿では,オブジェクトの標準画像のグローバルな表現を,監督なしに推測する合成シーンモデリング手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T14:36:36Z) - Context-driven Visual Object Recognition based on Knowledge Graphs [0.8701566919381223]
本稿では,知識グラフに符号化された外部文脈知識を用いて,ディープラーニング手法を強化する手法を提案する。
我々は、異なる文脈ビューが同じ画像データセットの学習対象表現に与える影響を調べるために、一連の実験を行った。
論文 参考訳(メタデータ) (2022-10-20T13:09:00Z) - Perceptual Grouping in Contrastive Vision-Language Models [59.1542019031645]
画像内の物体の位置を視覚言語モデルで理解し,画像の視覚的関連部分をグループ化する方法について述べる。
本稿では,意味情報と空間情報の両方を一意に学習するモデルとして,最小限の修正を提案する。
論文 参考訳(メタデータ) (2022-10-18T17:01:35Z) - Compositional Mixture Representations for Vision and Text [43.2292923754127]
視覚と言語の間の共通表現空間により、ディープネットワークは画像内のオブジェクトと対応する意味の意味を関連付けることができる。
本稿では,テキストの合成性を視覚領域に含ませる共有ガウス混合表現を,明示的な位置監督を伴わずに学習するモデルを提案する。
論文 参考訳(メタデータ) (2022-06-13T18:16:40Z) - Integrating Visuospatial, Linguistic and Commonsense Structure into
Story Visualization [81.26077816854449]
まず、構造的入力を符号化するための選挙区解析木の利用について検討する。
第二に、構造化されたインプットをコモンセンス情報で強化し、この外部知識が視覚的ストーリーの生成に与える影響について検討する。
第3に、境界ボックスと高密度キャプションによって視覚構造を組み込んで、生成された画像の文字やオブジェクトに関するフィードバックを提供する。
論文 参考訳(メタデータ) (2021-10-21T00:16:02Z) - Understanding Synonymous Referring Expressions via Contrastive Features [105.36814858748285]
画像とオブジェクトインスタンスレベルでのコントラスト機能を学ぶためのエンドツーエンドのトレーニング可能なフレームワークを開発しています。
提案アルゴリズムをいくつかのベンチマークデータセットで評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-04-20T17:56:24Z) - Learning Object Detection from Captions via Textual Scene Attributes [70.90708863394902]
キャプションには、オブジェクトの属性やそれらの関係など、画像に関するよりリッチな情報が含まれている、と我々は主張する。
本稿では,この「テキストシーングラフ」の属性を用いて物体検知器を訓練する手法を提案する。
得られたモデルが、いくつかの挑戦的なオブジェクト検出データセットに対して、最先端の結果を達成することを実証的に実証した。
論文 参考訳(メタデータ) (2020-09-30T10:59:20Z) - Probing Contextual Language Models for Common Ground with Visual
Representations [76.05769268286038]
我々は、マッチングと非マッチングの視覚表現を区別する上で、テキストのみの表現がいかに効果的かを評価するための探索モデルを設計する。
以上の結果から,言語表現だけでは,適切な対象カテゴリから画像パッチを検索する強力な信号が得られることがわかった。
視覚的に接地された言語モデルは、例えば検索においてテキストのみの言語モデルよりわずかに優れているが、人間よりもはるかに低い。
論文 参考訳(メタデータ) (2020-05-01T21:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。