論文の概要: Multi-Scale Estimation for Omni-Directional Saliency Maps Using
Learnable Equator Bias
- arxiv url: http://arxiv.org/abs/2309.08139v1
- Date: Fri, 15 Sep 2023 04:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 16:02:52.270519
- Title: Multi-Scale Estimation for Omni-Directional Saliency Maps Using
Learnable Equator Bias
- Title(参考訳): 学習可能な赤道偏差を用いた全方位サリエンシーマップのマルチスケール推定
- Authors: Takao Yamanaka, Tatsuya Suzuki, Taiki Nobutsune, Chenjunlin Wu
- Abstract要約: サリエンシマップは、ヘッドマウントディスプレイで視線点の確率分布を表す。
そこで本研究では,全方位画像に対する新しいサリエンシマップ推定モデルを提案する。
提案手法により,サリエンシマップの精度を向上した。
- 参考スコア(独自算出の注目度): 1.413861804135093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Omni-directional images have been used in wide range of applications. For the
applications, it would be useful to estimate saliency maps representing
probability distributions of gazing points with a head-mounted display, to
detect important regions in the omni-directional images. This paper proposes a
novel saliency-map estimation model for the omni-directional images by
extracting overlapping 2-dimensional (2D) plane images from omni-directional
images at various directions and angles of view. While 2D saliency maps tend to
have high probability at the center of images (center bias), the
high-probability region appears at horizontal directions in omni-directional
saliency maps when a head-mounted display is used (equator bias). Therefore,
the 2D saliency model with a center-bias layer was fine-tuned with an
omni-directional dataset by replacing the center-bias layer to an equator-bias
layer conditioned on the elevation angle for the extraction of the 2D plane
image. The limited availability of omni-directional images in saliency datasets
can be compensated by using the well-established 2D saliency model pretrained
by a large number of training images with the ground truth of 2D saliency maps.
In addition, this paper proposes a multi-scale estimation method by extracting
2D images in multiple angles of view to detect objects of various sizes with
variable receptive fields. The saliency maps estimated from the multiple angles
of view were integrated by using pixel-wise attention weights calculated in an
integration layer for weighting the optimal scale to each object. The proposed
method was evaluated using a publicly available dataset with evaluation metrics
for omni-directional saliency maps. It was confirmed that the accuracy of the
saliency maps was improved by the proposed method.
- Abstract(参考訳): Omni方向画像は幅広い用途で使われている。
本研究は,全方位画像中の重要領域を検出するため,頭部搭載ディスプレイを用いた視線の確率分布を表すサリエンシーマップの推定に有用である。
本稿では,全方位画像から重なり合う2次元平面像を様々な方向と角度で抽出し,全方位画像に対する新たなサリエンシマップ推定モデルを提案する。
2Dサリエンシマップは画像中心(中心バイアス)で高い確率を持つ傾向にあるが、ヘッドマウントディスプレイ(赤道バイアス)を使用する場合、全方向サリエンシマップの水平方向に高確率領域が現れる。
そこで, 2次元平面画像抽出のための標高角に基づく赤道バイアス層に, 中心バイアス層を置換することにより, 中心バイアス層を有する2次元塩分モデルを全方位データセットに微調整した。
サラレンシデータセットにおける全方位画像の可用性の制限は、2Dサリエンシマップの基礎となる多くのトレーニング画像によって事前訓練された確立された2Dサリエンシモデルを使用することで補償することができる。
さらに,様々な大きさの物体を可変受容場で検出するために,複数の角度から2次元画像を抽出するマルチスケール推定手法を提案する。
各対象物に対して最適なスケールを重み付けするために積分層で計算された画素毎の注意重みを用いて,多角視から推定される塩分マップを統合した。
提案手法は,全方向サリエンシマップの評価指標を用いた公開データセットを用いて評価した。
提案手法により,サリエンシマップの精度が向上することが確認された。
関連論文リスト
- View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Image-based Geolocalization by Ground-to-2.5D Map Matching [21.21416396311102]
地上視のクエリ画像と2Dマップをマッチングするために、クロスビューのローカライゼーション技術を利用することが多い。
マルチモーダルデータから代表埋め込みを学習するための新しい手法を提案する。
本手法は,重要な幾何学的手がかりを符号化することにより,パノラマ画像と地図のマッチングのための識別的位置埋め込みを学習する。
論文 参考訳(メタデータ) (2023-08-11T08:00:30Z) - ${S}^{2}$Net: Accurate Panorama Depth Estimation on Spherical Surface [4.649656275858966]
単球面上の単分子パノラマ深度推定のためのエンドツーエンドのディープネットワークを提案する。
具体的には、等方形画像から抽出した特徴写像を一様分散格子でサンプリングした単位球面に投影する。
本研究では,機能マップをスキップ接続から解き放ち,グローバルコンテキストの獲得能力を高めるために,グローバルなクロスアテンションベースの融合モジュールを提案する。
論文 参考訳(メタデータ) (2023-01-14T07:39:15Z) - Multi-Projection Fusion and Refinement Network for Salient Object
Detection in 360{\deg} Omnidirectional Image [141.10227079090419]
我々は,360度全方位画像中の有向物体を検出するために,MPFR-Net(Multi-Projection Fusion and Refinement Network)を提案する。
MPFR-Netは、等角射影像と対応する4つの立方体展開像を入力として使用する。
2つの全方位データセットの実験結果から,提案手法は定性的かつ定量的に,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-12-23T14:50:40Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - 2D LiDAR and Camera Fusion Using Motion Cues for Indoor Layout
Estimation [2.6905021039717987]
地上ロボットは、単一の床と垂直の壁を持つ屋内空間を探索し、一連の強度画像と2D LiDARデータセットを収集する。
センサ出力と画像セグメンテーションのアライメントは、LiDAR点をアライメントすることで、共同で計算される。
地層境界抽出のための画像の曖昧さをLiDAR観測の助けを借りて除去する。
論文 参考訳(メタデータ) (2022-04-24T06:26:02Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - Where am I looking at? Joint Location and Orientation Estimation by
Cross-View Matching [95.64702426906466]
ジオタグ付き空中画像の大規模データベースを考えると、クロスビューなジオローカライゼーションは問題となる。
地上画像と空中画像の向きを知ることは、これらの2つのビュー間のあいまいさを著しく軽減することができる。
局所化時の横方向のアライメントを推定する動的類似マッチングネットワークを設計する。
論文 参考訳(メタデータ) (2020-05-08T05:21:16Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z) - Indoor Layout Estimation by 2D LiDAR and Camera Fusion [3.2387553628943535]
本稿では,画像列とLiDARデータセットの融合による屋内レイアウト推定と再構築のためのアルゴリズムを提案する。
提案システムでは,2次元LiDAR情報とインテンシティ画像の両方を移動プラットフォームで収集する。
論文 参考訳(メタデータ) (2020-01-15T16:43:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。