論文の概要: A Study on Visual Perception of Light Field Content
- arxiv url: http://arxiv.org/abs/2008.03195v1
- Date: Fri, 7 Aug 2020 14:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 01:47:48.255792
- Title: A Study on Visual Perception of Light Field Content
- Title(参考訳): 照明内容の視覚的知覚に関する研究
- Authors: Ailbhe Gill, Emin Zerman, Cagri Ozcinar, Aljosa Smolic
- Abstract要約: 本研究は,光場の内容に関する視覚的注意研究である。
様々な方法でユーザに対して知覚実験を行った。
本分析は,光電界イメージングアプリケーションにおけるユーザ行動の特徴を明らかにする。
- 参考スコア(独自算出の注目度): 19.397619552417986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The effective design of visual computing systems depends heavily on the
anticipation of visual attention, or saliency. While visual attention is well
investigated for conventional 2D images and video, it is nevertheless a very
active research area for emerging immersive media. In particular, visual
attention of light fields (light rays of a scene captured by a grid of cameras
or micro lenses) has only recently become a focus of research. As they may be
rendered and consumed in various ways, a primary challenge that arises is the
definition of what visual perception of light field content should be. In this
work, we present a visual attention study on light field content. We conducted
perception experiments displaying them to users in various ways and collected
corresponding visual attention data. Our analysis highlights characteristics of
user behaviour in light field imaging applications. The light field data set
and attention data are provided with this paper.
- Abstract(参考訳): ビジュアルコンピューティングシステムの効果的な設計は、視覚的注意の期待や、敬遠に大きく依存する。
従来の2d画像や映像では視覚的な注意力は十分研究されているが、没入型メディアにとって非常に活発な研究分野である。
特に、光野の視覚的な注意(カメラやマイクロレンズのグリッドで撮影されたシーンの光線)は、最近になって研究の焦点となったばかりである。
様々な方法でレンダリングされ、消費される可能性があるため、主な課題は、光界コンテンツの視覚知覚の定義である。
本研究は,光場の内容に関する視覚的注意研究である。
様々な方法でユーザに提示する知覚実験を行い,対応する視覚注意データを収集した。
本分析は,光電界イメージングアプリケーションにおけるユーザ行動の特徴を明らかにする。
本論文は、光場データセットと注目データとを具備する。
関連論文リスト
- Visual attention information can be traced on cortical response but not
on the retina: evidence from electrophysiological mouse data using natural
images as stimuli [0.0]
一次視覚野(V1)では、約10%のニューロンのサブセットが、正解と非正解の視覚領域に対して異なる反応を示す。
網膜は、視覚的注意に関してナイーブなままであり、皮質反応は視覚的注意情報を解釈する。
論文 参考訳(メタデータ) (2023-08-01T13:09:48Z) - Stochastic Light Field Holography [35.73147050231529]
視覚チューリングテストはホログラフィックディスプレイのリアリズムを評価するための最終目標である。
従来の研究は、大規模な焦点音量に対する「注意」や画質の制限といった課題に対処することに注力してきた。
そこで本研究では,非コヒーレント光場の投影演算子をマッチングすることにより,ホログラム生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-12T16:20:08Z) - Decoding Attention from Gaze: A Benchmark Dataset and End-to-End Models [6.642042615005632]
視線追跡は、生態学的に有効な環境において、人間の認知に関する豊富な行動データを提供する可能性がある。
本稿では,コンピュータビジョンツールを用いて,時間とともに参加者の過度な視覚的注意の軌跡を評価する作業である「アテンション・デコーディング」について検討する。
論文 参考訳(メタデータ) (2022-11-20T12:24:57Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - Attention Mechanisms in Computer Vision: A Survey [75.6074182122423]
本稿では,コンピュータビジョンにおける様々な注意機構について概観する。
チャネルアテンション,空間アテンション,時間アテンション,分岐アテンションなど,アプローチによって分類する。
我々は注意機構研究の今後の方向性を提案する。
論文 参考訳(メタデータ) (2021-11-15T09:18:40Z) - A Dataset for Provident Vehicle Detection at Night [3.1969855247377827]
この直感的な人間の行動をコンピュータビジョンアルゴリズムにマッピングし、夜間に来るべき車両を検知する方法の問題点について検討する。
夜間の農村環境における346の異なるシーンのうち,59746の注釈付きグレースケール画像を含む大規模なオープンソースデータセットを提案する。
光反射などの視覚的手がかりを客観的に記述する上で,データセットの特徴と課題について論じる。
論文 参考訳(メタデータ) (2021-05-27T15:31:33Z) - Onfocus Detection: Identifying Individual-Camera Eye Contact from
Unconstrained Images [81.64699115587167]
Onfocus Detectionは、カメラが捉えた個人の焦点がカメラにあるかどうかを特定することを目的としている。
OnFocus Detection In the Wild (OFDIW) と呼ばれる大規模なオンフォーカス検出データセットを構築しました。
本研究では,視線干渉推論ネットワーク (ECIIN) を用いた眼球深度検出モデルを提案する。
論文 参考訳(メタデータ) (2021-03-29T03:29:09Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Deep learning for scene recognition from visual data: a survey [2.580765958706854]
この研究は、視覚データから深層学習モデルを用いて、シーン認識における最先端の技術をレビューすることを目的としている。
シーン認識は依然としてコンピュータビジョンの新たな分野であり、単一の画像と動的な画像の観点から対処されてきた。
論文 参考訳(メタデータ) (2020-07-03T16:53:18Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。