論文の概要: Learning Gaussian Representation for Eye Fixation Prediction
- arxiv url: http://arxiv.org/abs/2403.14821v1
- Date: Thu, 21 Mar 2024 20:28:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 19:16:32.938301
- Title: Learning Gaussian Representation for Eye Fixation Prediction
- Title(参考訳): アイフィクス予測のためのガウス表現の学習
- Authors: Peipei Song, Jing Zhang, Piotr Koniusz, Nick Barnes,
- Abstract要約: 既存のアイ固定予測方法は、入力画像から原固定点から生成された対応する濃密な固定マップへのマッピングを行う。
本稿ではアイフィグレーションモデリングのためのガウス表現について紹介する。
我々は,リアルタイムな固定予測を実現するために,軽量なバックボーン上にフレームワークを設計する。
- 参考スコア(独自算出の注目度): 54.88001757991433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing eye fixation prediction methods perform the mapping from input images to the corresponding dense fixation maps generated from raw fixation points. However, due to the stochastic nature of human fixation, the generated dense fixation maps may be a less-than-ideal representation of human fixation. To provide a robust fixation model, we introduce Gaussian Representation for eye fixation modeling. Specifically, we propose to model the eye fixation map as a mixture of probability distributions, namely a Gaussian Mixture Model. In this new representation, we use several Gaussian distribution components as an alternative to the provided fixation map, which makes the model more robust to the randomness of fixation. Meanwhile, we design our framework upon some lightweight backbones to achieve real-time fixation prediction. Experimental results on three public fixation prediction datasets (SALICON, MIT1003, TORONTO) demonstrate that our method is fast and effective.
- Abstract(参考訳): 既存のアイ固定予測方法は、入力画像から原固定点から生成された対応する濃密な固定マップへのマッピングを行う。
しかしながら、人間の固定の確率的な性質のため、生成された密集した固定マップは人間の固定の理想的な表現ではないかもしれない。
頑健な固定モデルを実現するために,眼球固定モデルのためのガウス表現を導入する。
具体的には、眼球固定図を確率分布の混合、すなわちガウス混合モデルとしてモデル化することを提案する。
この表現では、与えられた固定写像の代替としていくつかのガウス分布成分を使用し、固定のランダム性に対してモデルをより堅牢にする。
一方、リアルタイムな修正予測を実現するために、軽量なバックボーンに基づいてフレームワークを設計する。
3つの公開固定予測データセット(SALICON, MIT1003, TORONTO)の実験結果から,本手法が高速かつ効果的であることを示す。
関連論文リスト
- NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - Correntropy-Based Improper Likelihood Model for Robust Electrophysiological Source Imaging [18.298620404141047]
既存のソースイメージングアルゴリズムは、観測ノイズに対するガウスの仮定を利用して、ベイズ推定の確率関数を構築する。
脳活動の電磁的測定は、通常、様々な人工物に影響され、観測ノイズの非ガウス分布につながる可能性がある。
非ガウス雑音に対して頑健な新しい確率モデルを提案する。
論文 参考訳(メタデータ) (2024-08-27T07:54:15Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - pixelSplat: 3D Gaussian Splats from Image Pairs for Scalable Generalizable 3D Reconstruction [26.72289913260324]
pixelSplatは、画像のペアから3次元ガウスプリミティブによってパラメータ化された3次元放射界の再構成を学ぶフィードフォワードモデルである。
我々のモデルは、スケーラブルなトレーニングのためのリアルタイム・メモリ効率のレンダリングと、推論時の高速な3次元再構成を特徴としている。
論文 参考訳(メタデータ) (2023-12-19T17:03:50Z) - DiffPose: Multi-hypothesis Human Pose Estimation using Diffusion models [5.908471365011943]
与えられた入力画像に対して複数の仮説を予測する条件拡散モデルであるemphDiffPoseを提案する。
DiffPoseは, 簡単なポーズの多面的ポーズを推定し, 極めてあいまいなポーズに対して大きなマージンで優れることを示す。
論文 参考訳(メタデータ) (2022-11-29T18:55:13Z) - A Model for Multi-View Residual Covariances based on Perspective
Deformation [88.21738020902411]
マルチビューSfM, オードメトリ, SLAMセットアップにおける視覚的残差の共分散モデルの導出を行う。
我々は、合成データと実データを用いてモデルを検証し、それを光度および特徴量に基づくバンドル調整に統合する。
論文 参考訳(メタデータ) (2022-02-01T21:21:56Z) - Probabilistic Modeling for Human Mesh Recovery [73.11532990173441]
本稿では,2次元の証拠から3次元の人体復元の問題に焦点を当てた。
我々は,この問題を,入力から3Dポーズの分布へのマッピング学習として再考した。
論文 参考訳(メタデータ) (2021-08-26T17:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。