論文の概要: Feedback Driven Multi Stereo Vision System for Real-Time Event Analysis
- arxiv url: http://arxiv.org/abs/2506.17910v1
- Date: Sun, 22 Jun 2025 06:19:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.647246
- Title: Feedback Driven Multi Stereo Vision System for Real-Time Event Analysis
- Title(参考訳): リアルタイムイベント解析のためのフィードバック駆動型マルチステレオビジョンシステム
- Authors: Mohamed Benkedadra, Matei Mancas, Sidi Ahmed Mahmoudi,
- Abstract要約: 2Dカメラは、インタラクティブなシステムでよく使われる。ゲームコンソールのような他のシステムは、より強力な3Dカメラを提供して、短距離深度を検知する。
本稿では,対話型システムのための立体視に基づく3次元パイプラインを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 2D cameras are often used in interactive systems. Other systems like gaming consoles provide more powerful 3D cameras for short range depth sensing. Overall, these cameras are not reliable in large, complex environments. In this work, we propose a 3D stereo vision based pipeline for interactive systems, that is able to handle both ordinary and sensitive applications, through robust scene understanding. We explore the fusion of multiple 3D cameras to do full scene reconstruction, which allows for preforming a wide range of tasks, like event recognition, subject tracking, and notification. Using possible feedback approaches, the system can receive data from the subjects present in the environment, to learn to make better decisions, or to adapt to completely new environments. Throughout the paper, we introduce the pipeline and explain our preliminary experimentation and results. Finally, we draw the roadmap for the next steps that need to be taken, in order to get this pipeline into production
- Abstract(参考訳): 2Dカメラは、しばしばインタラクティブシステムで使用される。
ゲームコンソールのような他のシステムは、短距離深度検知のためのより強力な3Dカメラを提供する。
全体として、これらのカメラは大規模で複雑な環境では信頼性が低い。
本研究では,対話型システムのための3次元ステレオビジョンに基づくパイプラインを提案する。
複数の3Dカメラを融合して全シーンを再現し、イベント認識、被写体追跡、通知といった幅広いタスクを前処理できる。
可能なフィードバックアプローチを使用することで、システムは環境に存在する被験者からデータを受け取り、より良い意思決定をするか、全く新しい環境に適応するかを学ぶことができる。
論文全体を通して,パイプラインを紹介し,予備実験と結果を説明する。
最後に、このパイプラインを本番環境に投入するために、取るべき次のステップのロードマップを描きます。
関連論文リスト
- Voyager: Long-Range and World-Consistent Video Diffusion for Explorable 3D Scene Generation [66.95956271144982]
本稿では,単一画像から一貫した3Dポイントクラウドシーケンスを生成する新しいビデオ拡散フレームワークであるVoyagerを紹介する。
既存のアプローチとは異なり、Voyagerはフレーム間で固有の一貫性を持って、エンドツーエンドのシーン生成と再構築を実現している。
論文 参考訳(メタデータ) (2025-06-04T17:59:04Z) - WiLoR: End-to-end 3D Hand Localization and Reconstruction in-the-wild [53.288327629960364]
野生における効率的なマルチハンド再構築のためのデータ駆動パイプラインを提案する。
提案するパイプラインは、リアルタイム完全畳み込みハンドローカライゼーションと、高忠実度トランスフォーマーに基づく3Dハンド再構成モデルという2つのコンポーネントで構成されている。
提案手法は, 一般的な2次元および3次元のベンチマークにおいて, 効率と精度の両方において, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-18T18:46:51Z) - Dense Voxel 3D Reconstruction Using a Monocular Event Camera [5.599072208069752]
イベントカメラは、従来のフレームベースのカメラよりも多くの利点がある。
それらのVRアプリケーションのための3D再構成の応用は、あまり研究されていない。
単一イベントカメラのみを用いた高密度3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2023-09-01T10:46:57Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - A Flexible Multi-view Multi-modal Imaging System for Outdoor Scenes [37.5716419191546]
大規模な屋外シーンに適用可能な無線マルチビューマルチモーダル3Dイメージングシステムを提案する。
カメラとLiDARを備えた複数の空間分散スレーブノードが接続され、無線センサネットワークを形成する。
このシステムは、ミュートリビューRGBカメラとLiDARを大規模な屋外シーンで統合した最初の撮像システムである。
論文 参考訳(メタデータ) (2023-02-21T06:14:05Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。