論文の概要: Towards Mesh Saliency Detection in 6 Degrees of Freedom
- arxiv url: http://arxiv.org/abs/2005.13127v2
- Date: Tue, 23 Jun 2020 01:07:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:33:42.269828
- Title: Towards Mesh Saliency Detection in 6 Degrees of Freedom
- Title(参考訳): 6自由度メッシュ塩分検出に向けて
- Authors: Xiaoying Ding and Zhenzhong Chen
- Abstract要約: 6DoFメッシュサリエンシデータベースは、被験者の6DoFデータと眼球運動データの両方を提供する。
そこで本研究では,一意性尺度とバイアス嗜好に基づく6DoFメッシュ・サリエンシ検出アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 66.00323807003699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional 3D mesh saliency detection algorithms and corresponding databases
were proposed under several constraints such as providing limited viewing
directions and not taking the subject's movement into consideration. In this
work, a novel 6DoF mesh saliency database is developed which provides both the
subject's 6DoF data and eye-movement data. Different from traditional
databases, subjects in the experiment are allowed to move freely to observe 3D
meshes in a virtual reality environment. Based on the database, we first
analyze the inter-observer variation and the influence of viewing direction
towards subject's visual attention, then we provide further investigations
about the subject's visual attention bias during observation. Furthermore, we
propose a 6DoF mesh saliency detection algorithm based on the uniqueness
measure and the bias preference. To evaluate the proposed approach, we also
design an evaluation metric accordingly which takes the 6DoF information into
consideration, and extend some state-of-the-art 3D saliency detection methods
to make comparisons. The experimental results demonstrate the superior
performance of our approach for 6DoF mesh saliency detection, in addition to
providing benchmarks for the presented 6DoF mesh saliency database. The
database and the corresponding algorithms will be made publicly available for
research purposes.
- Abstract(参考訳): 従来の3次元メッシュ塩分検出アルゴリズムとそれに対応するデータベースは,対象者の移動を考慮せず,視聴方向の制限など,いくつかの制約の下で提案されている。
本研究では、被験者の6DoFデータと眼球運動データの両方を提供する新しい6DoFメッシュサリエンシデータベースを開発した。
従来のデータベースとは異なり、実験対象は自由に動き、仮想現実環境で3Dメッシュを観察することができる。
データベースを用いて,まず観察者の目視に対する視角方向の変動と観察方向の影響を解析し,観察中の被験者の視的注意バイアスについてさらに検討する。
さらに,一意性尺度とバイアス嗜好に基づく6DoFメッシュ・サリエンシ検出アルゴリズムを提案する。
提案手法を評価するため,提案手法は6DoF情報を考慮した評価基準を設計し,最先端の3D塩分検出手法を拡張して比較を行う。
実験の結果,提案した6DoFメッシュサリエンシデータベースのベンチマークに加えて,我々の6DoFメッシュサリエンシ検出手法の優れた性能を示した。
データベースと対応するアルゴリズムは研究目的で公開される予定だ。
関連論文リスト
- Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Simultaneous Multiple Object Detection and Pose Estimation using 3D
Model Infusion with Monocular Vision [21.710141497071373]
複数物体の検出とポーズ推定はコンピュータビジョンの重要なタスクである。
単眼視と3Dモデルを用いた同時ニューラルモデリングを提案する。
我々の同時多重物体検出・ポース推定ネットワーク(SMOPE-Net)は、エンドツーエンドのトレーニング可能なマルチタスクネットワークである。
論文 参考訳(メタデータ) (2022-11-21T05:18:56Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - 3D Object Detection with a Self-supervised Lidar Scene Flow Backbone [10.341296683155973]
本稿では,下流3次元視覚タスクのための汎用クラウドバックボーンモデルを学習するために,自己指導型トレーニング戦略を提案する。
我々の主な貢献は、学習の流れと動きの表現を活用し、自己教師付きバックボーンと3D検出ヘッドを組み合わせることである。
KITTIとnuScenesベンチマークの実験により、提案した自己教師付き事前学習は3次元検出性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2022-05-02T07:53:29Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Visual Object Tracking with Discriminative Filters and Siamese Networks:
A Survey and Outlook [97.27199633649991]
識別相関フィルタ (DCF) とディープシームズネットワーク (SN) が支配的な追跡パラダイムとして出現している。
本調査では,9つのトラッキングベンチマークの結果に基づいて,90以上のDCFとSiameseトラッカーの体系的,徹底的なレビューを行う。
論文 参考訳(メタデータ) (2021-12-06T07:57:10Z) - 3D Point-to-Keypoint Voting Network for 6D Pose Estimation [8.801404171357916]
3次元キーポイントの空間構造特性に基づくRGB-Dデータから6次元ポーズ推定のためのフレームワークを提案する。
提案手法は, LINEMOD と OCCLUSION LINEMOD の2つのベンチマークデータセットで検証する。
論文 参考訳(メタデータ) (2020-12-22T11:43:15Z) - 3D Object Detection and Tracking Based on Streaming Data [9.085584050311178]
我々は、オンに基づいて3次元物体検出のためのデュアルウェイネットワークを構築し、時間情報で導かれる動きに基づくアルゴリズムにより、非キーフレームに予測を伝達する。
我々のフレームワークはフレーム・バイ・フレーム・パラダイムよりも大幅に改善されているだけでなく、KITTI Object Tracking Benchmarkで競合する結果が得られることが証明されている。
論文 参考訳(メタデータ) (2020-09-14T03:15:41Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Object 6D Pose Estimation with Non-local Attention [29.929911622127502]
本研究では,オブジェクト検出フレームワークに6次元オブジェクトポーズパラメータ推定を組み込むネットワークを提案する。
提案手法は,YCB- VideoおよびLinemodデータセット上での最先端性能に到達する。
論文 参考訳(メタデータ) (2020-02-20T14:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。