論文の概要: Sphere-GAN: a GAN-based Approach for Saliency Estimation in 360° Videos
- arxiv url: http://arxiv.org/abs/2509.11948v1
- Date: Mon, 15 Sep 2025 14:07:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.32615
- Title: Sphere-GAN: a GAN-based Approach for Saliency Estimation in 360° Videos
- Title(参考訳): Sphere-GAN:360°映像の残差推定のためのGANに基づくアプローチ
- Authors: Mahmoud Z. A. Wahba, Sara Baldoni, Federica Battisti,
- Abstract要約: 唾液度推定は、視覚的に関連のある領域を特定する強力なツールを提供する。
球状畳み込みを伴うジェネレーティブ・アドバーサリアル・ネットワークを利用する360degビデオのサリエンシ検出モデルであるSphere-GANを紹介する。
- 参考スコア(独自算出の注目度): 5.66239168125163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent success of immersive applications is pushing the research community to define new approaches to process 360{\deg} images and videos and optimize their transmission. Among these, saliency estimation provides a powerful tool that can be used to identify visually relevant areas and, consequently, adapt processing algorithms. Although saliency estimation has been widely investigated for 2D content, very few algorithms have been proposed for 360{\deg} saliency estimation. Towards this goal, we introduce Sphere-GAN, a saliency detection model for 360{\deg} videos that leverages a Generative Adversarial Network with spherical convolutions. Extensive experiments were conducted using a public 360{\deg} video saliency dataset, and the results demonstrate that Sphere-GAN outperforms state-of-the-art models in accurately predicting saliency maps.
- Abstract(参考訳): 最近の没入型アプリケーションの成功により、研究コミュニティは360{\deg}の画像とビデオを処理し、その伝送を最適化するための新しいアプローチを定義せざるを得なくなった。
これらのうち、唾液度推定は、視覚的に関連する領域を特定し、その結果、処理アルゴリズムを適用するために使用できる強力なツールを提供する。
唾液度推定は2次元コンテンツに対して広く研究されているが,360{\deg} 唾液度推定のためのアルゴリズムはほとんど提案されていない。
この目標に向けて,球状畳み込みを用いたジェネレーティブ・アドバイサル・ネットワークを利用した360{\deg}ビデオのサリエンシ検出モデルであるSphere-GANを導入する。
パブリックな360{\deg}ビデオ・サリエンシ・データセットを用いて大規模な実験を行い、その結果、Sphere-GANは最新技術モデルよりも精度良くサリエンシ・マップを予測できることを示した。
関連論文リスト
- NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - Depth Anywhere: Enhancing 360 Monocular Depth Estimation via Perspective Distillation and Unlabeled Data Augmentation [6.832852988957967]
ラベルのない360度データを効果的に活用する新しい深度推定フレームワークを提案する。
提案手法では,教師モデルとして最先端の視点深度推定モデルを用いて擬似ラベルを生成する。
我々は、Matterport3DやStanford2D3Dといったベンチマークデータセットに対するアプローチを検証し、深さ推定精度を大幅に改善した。
論文 参考訳(メタデータ) (2024-06-18T17:59:31Z) - R$^2$-Gaussian: Rectifying Radiative Gaussian Splatting for Tomographic Reconstruction [53.19869886963333]
3次元ガウススプラッティング(3DGS)は画像のレンダリングと表面再構成において有望な結果を示した。
本稿では,Sparse-viewトモグラフィ再構成のための3DGSベースのフレームワークであるR2$-Gaussianを紹介する。
論文 参考訳(メタデータ) (2024-05-31T08:39:02Z) - SAGD: Boundary-Enhanced Segment Anything in 3D Gaussian via Gaussian Decomposition [66.56357905500512]
3Dガウススプラッティングは、新しいビュー合成のための代替の3D表現として登場した。
SAGDは3D-GSのための概念的にシンプルで効果的な境界拡張パイプラインである。
提案手法は粗い境界問題なく高品質な3Dセグメンテーションを実現し,他のシーン編集作業にも容易に適用できる。
論文 参考訳(メタデータ) (2024-01-31T14:19:03Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - 360 Depth Estimation in the Wild -- The Depth360 Dataset and the SegFuse
Network [35.03201732370496]
全方位画像からの一視点深度推定は、自律運転やシーン再構築といった幅広い応用で人気を博している。
本研究ではまず,トレーニングデータ問題に対処するため,Depth360と呼ばれるさまざまな設定の大規模データセットを構築した。
次に、人間の眼を模倣してデータセットから効果的に学習する、エンドツーエンドのマルチタスク学習ネットワークであるSegFuseを提案する。
論文 参考訳(メタデータ) (2022-02-16T11:56:31Z) - Field-of-View IoU for Object Detection in 360{\deg} Images [36.72543749626039]
本研究では,FoV-IoU(FoV-IoU)と360deg画像における物体検出のための360Augmentationという2つの基本手法を提案する。
FoV-IoUは2つの視野境界ボックスの交叉結合を球面画像で計算し、トレーニング、推論、評価に使用できる。
360Augmentationは、球面イメージをランダムに回転させ、球面から平面への投影によるバイアスを解決する360degオブジェクト検出タスクに特有のデータ拡張技術である。
論文 参考訳(メタデータ) (2022-02-07T14:01:59Z) - Applying VertexShuffle Toward 360-Degree Video Super-Resolution on
Focused-Icosahedral-Mesh [10.29596292902288]
We exploited Focused Icosahedral Mesh to represent a small area and construct matrices to rotation spherical content to the focus mesh area。
また,性能と効率を両立させる新しいVertexShuffle演算を提案する。
提案する球面超解像モデルでは,性能と推定時間の両方において大きなメリットが得られている。
論文 参考訳(メタデータ) (2021-06-21T16:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。