論文の概要: A Study on Visual Perception of Light Field Content
- arxiv url: http://arxiv.org/abs/2008.03195v1
- Date: Fri, 7 Aug 2020 14:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 01:47:48.255792
- Title: A Study on Visual Perception of Light Field Content
- Title(参考訳): 照明内容の視覚的知覚に関する研究
- Authors: Ailbhe Gill, Emin Zerman, Cagri Ozcinar, Aljosa Smolic
- Abstract要約: 本研究は,光場の内容に関する視覚的注意研究である。
様々な方法でユーザに対して知覚実験を行った。
本分析は,光電界イメージングアプリケーションにおけるユーザ行動の特徴を明らかにする。
- 参考スコア(独自算出の注目度): 19.397619552417986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The effective design of visual computing systems depends heavily on the
anticipation of visual attention, or saliency. While visual attention is well
investigated for conventional 2D images and video, it is nevertheless a very
active research area for emerging immersive media. In particular, visual
attention of light fields (light rays of a scene captured by a grid of cameras
or micro lenses) has only recently become a focus of research. As they may be
rendered and consumed in various ways, a primary challenge that arises is the
definition of what visual perception of light field content should be. In this
work, we present a visual attention study on light field content. We conducted
perception experiments displaying them to users in various ways and collected
corresponding visual attention data. Our analysis highlights characteristics of
user behaviour in light field imaging applications. The light field data set
and attention data are provided with this paper.
- Abstract(参考訳): ビジュアルコンピューティングシステムの効果的な設計は、視覚的注意の期待や、敬遠に大きく依存する。
従来の2d画像や映像では視覚的な注意力は十分研究されているが、没入型メディアにとって非常に活発な研究分野である。
特に、光野の視覚的な注意(カメラやマイクロレンズのグリッドで撮影されたシーンの光線)は、最近になって研究の焦点となったばかりである。
様々な方法でレンダリングされ、消費される可能性があるため、主な課題は、光界コンテンツの視覚知覚の定義である。
本研究は,光場の内容に関する視覚的注意研究である。
様々な方法でユーザに提示する知覚実験を行い,対応する視覚注意データを収集した。
本分析は,光電界イメージングアプリケーションにおけるユーザ行動の特徴を明らかにする。
本論文は、光場データセットと注目データとを具備する。
関連論文リスト
- Low-Light Enhancement Effect on Classification and Detection: An Empirical Study [48.6762437869172]
我々は,低照度画像強調法(LLIE)が高レベル視覚タスクに与える影響を評価する。
本研究は,人間の視覚知覚における画像強調と,機械解析における切り離しを示唆するものである。
この洞察は、人間と機械の視覚の両方のニーズに合致するLLIE技術の開発に不可欠である。
論文 参考訳(メタデータ) (2024-09-22T14:21:31Z) - Semantic-Based Active Perception for Humanoid Visual Tasks with Foveal Sensors [49.99728312519117]
この研究の目的は、最近の意味に基づくアクティブな知覚モデルが、人間が定期的に行う視覚的なタスクをいかに正確に達成できるかを確立することである。
このモデルは、現在のオブジェクト検出器が多数のオブジェクトクラスをローカライズし、分類し、複数の固定にまたがるシーンのセマンティック記述を更新する能力を利用する。
シーン探索の課題では、セマンティック・ベースの手法は従来のサリエンシ・ベース・モデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-16T18:15:57Z) - Stochastic Light Field Holography [35.73147050231529]
視覚チューリングテストはホログラフィックディスプレイのリアリズムを評価するための最終目標である。
従来の研究は、大規模な焦点音量に対する「注意」や画質の制限といった課題に対処することに注力してきた。
そこで本研究では,非コヒーレント光場の投影演算子をマッチングすることにより,ホログラム生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-12T16:20:08Z) - Decoding Attention from Gaze: A Benchmark Dataset and End-to-End Models [6.642042615005632]
視線追跡は、生態学的に有効な環境において、人間の認知に関する豊富な行動データを提供する可能性がある。
本稿では,コンピュータビジョンツールを用いて,時間とともに参加者の過度な視覚的注意の軌跡を評価する作業である「アテンション・デコーディング」について検討する。
論文 参考訳(メタデータ) (2022-11-20T12:24:57Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - A Dataset for Provident Vehicle Detection at Night [3.1969855247377827]
この直感的な人間の行動をコンピュータビジョンアルゴリズムにマッピングし、夜間に来るべき車両を検知する方法の問題点について検討する。
夜間の農村環境における346の異なるシーンのうち,59746の注釈付きグレースケール画像を含む大規模なオープンソースデータセットを提案する。
光反射などの視覚的手がかりを客観的に記述する上で,データセットの特徴と課題について論じる。
論文 参考訳(メタデータ) (2021-05-27T15:31:33Z) - Onfocus Detection: Identifying Individual-Camera Eye Contact from
Unconstrained Images [81.64699115587167]
Onfocus Detectionは、カメラが捉えた個人の焦点がカメラにあるかどうかを特定することを目的としている。
OnFocus Detection In the Wild (OFDIW) と呼ばれる大規模なオンフォーカス検出データセットを構築しました。
本研究では,視線干渉推論ネットワーク (ECIIN) を用いた眼球深度検出モデルを提案する。
論文 参考訳(メタデータ) (2021-03-29T03:29:09Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Deep learning for scene recognition from visual data: a survey [2.580765958706854]
この研究は、視覚データから深層学習モデルを用いて、シーン認識における最先端の技術をレビューすることを目的としている。
シーン認識は依然としてコンピュータビジョンの新たな分野であり、単一の画像と動的な画像の観点から対処されてきた。
論文 参考訳(メタデータ) (2020-07-03T16:53:18Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。