論文の概要: SaccadeCam: Adaptive Visual Attention for Monocular Depth Sensing
- arxiv url: http://arxiv.org/abs/2103.12981v2
- Date: Fri, 26 Mar 2021 03:44:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 06:08:04.445334
- Title: SaccadeCam: Adaptive Visual Attention for Monocular Depth Sensing
- Title(参考訳): saccadecam:単眼深度センシングのための適応的視覚注意
- Authors: Brevin Tilmon and Sanjeev J. Koppal
- Abstract要約: 本稿では,シーンの関心領域に解像度を適応的に分散するSaccadeCamフレームワークを提案する。
適応解像アルゴリズムは自己教師付きネットワークであり,単眼深度推定のためのエンドツーエンド学習の結果を示す。
- 参考スコア(独自算出の注目度): 4.974890682815778
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most monocular depth sensing methods use conventionally captured images that
are created without considering scene content. In contrast, animal eyes have
fast mechanical motions, called saccades, that control how the scene is imaged
by the fovea, where resolution is highest. In this paper, we present the
SaccadeCam framework for adaptively distributing resolution onto regions of
interest in the scene. Our algorithm for adaptive resolution is a
self-supervised network and we demonstrate results for end-to-end learning for
monocular depth estimation. We also show preliminary results with a real
SaccadeCam hardware prototype.
- Abstract(参考訳): ほとんどの単眼深度検出法は、シーンの内容を考慮することなく生成される従来の撮像画像を使用する。
対照的に、動物の目は、サッケードと呼ばれる速い機械的動きを持ち、解像度が高いフォビアによってどのように撮影されるかを制御する。
本稿では,シーンに興味のある領域に適応的に解像度を分配するsaccadecamフレームワークを提案する。
適応解像アルゴリズムは自己教師付きネットワークであり,単眼深度推定のためのエンドツーエンド学習の結果を示す。
また、実際のSaccadeCamハードウェアのプロトタイプで予備結果を示す。
関連論文リスト
- Incremental Joint Learning of Depth, Pose and Implicit Scene Representation on Monocular Camera in Large-scale Scenes [17.055674468733244]
本研究では,正確な深度,ポーズ推定,大規模シーン再構築を実現するための,段階的な共同学習フレームワークを提案する。
視覚変換器を用いたネットワークをバックボーンとして採用し、スケール情報推定の性能を向上させる。
暗黙的なシーン表現の観点から、大規模シーン全体を複数の局所放射場として構成するインクリメンタルなシーン表現法を提案する。
論文 参考訳(メタデータ) (2024-04-09T06:27:35Z) - MetaCap: Meta-learning Priors from Multi-View Imagery for Sparse-view Human Performance Capture and Rendering [91.76893697171117]
そこで本研究では, 高精度かつ高品質な幾何復元と新規なビュー合成手法を提案する。
私たちのキーとなるアイデアは、低解像度のマルチビュービデオからのみ、放射界の重みをメタラーニングすることです。
新しいデータセットWildDynaCap(ワイルドダイナキャップ)は、密集したカメラドームと細いカメラリグの両方に収まる被写体を含んでいる。
論文 参考訳(メタデータ) (2024-03-27T17:59:54Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Enhancing Perception and Immersion in Pre-Captured Environments through
Learning-Based Eye Height Adaptation [19.959897524064353]
目の高さが変化した全方位画像に対する新しい視点の学習に基づくアプローチを提案する。
本手法は,全方向認識深度画像の改良により,視高適応のための自然視と現実視を合成する。
論文 参考訳(メタデータ) (2023-08-24T19:14:28Z) - RUST: Latent Neural Scene Representations from Unposed Imagery [21.433079925439234]
2次元観察から3次元シーンの構造を推定することは、コンピュータビジョンにおける根本的な課題である。
ニューラルシーン表現に基づく最近の普及したアプローチは、非常に大きな影響を与えている。
RUST(Really Unposed Scene representation Transformer)は、RGB画像だけで訓練された新しいビューに対するポーズレスアプローチである。
論文 参考訳(メタデータ) (2022-11-25T18:59:10Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - Panoramic Depth Estimation via Supervised and Unsupervised Learning in
Indoor Scenes [8.48364407942494]
パノラマ画像を導入して視野を大きくする。
パノラマ画像の特徴に適応したニューラルネットワークのトレーニングプロセスを改善する。
本研究は, 総合的な実験により, 屋内シーンの認識を目的とした提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-08-18T09:58:44Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z) - Remote Sensing Image Scene Classification Meets Deep Learning:
Challenges, Methods, Benchmarks, and Opportunities [81.29441139530844]
本稿では,160以上の論文を網羅し,リモートセンシング画像シーン分類のためのディープラーニング手法の体系的調査を行う。
リモートセンシング画像シーンの分類と調査の主な課題について論じる。
リモートセンシング画像シーン分類に使用されるベンチマークを導入し,2ダース以上の代表アルゴリズムの性能を要約する。
論文 参考訳(メタデータ) (2020-05-03T14:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。