論文の概要: Motor Focus: Ego-Motion Prediction with All-Pixel Matching
- arxiv url: http://arxiv.org/abs/2404.17031v1
- Date: Thu, 25 Apr 2024 20:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 14:33:49.370219
- Title: Motor Focus: Ego-Motion Prediction with All-Pixel Matching
- Title(参考訳): オートフォーカス:全画素マッチングによるエゴ運動予測
- Authors: Hao Wang, Jiayou Qin, Xiwen Chen, Ashish Bastola, John Suchanek, Zihao Gong, Abolfazl Razi,
- Abstract要約: 我々は,運動焦点の予測にエゴモーション補償を用いた光学的流れを用いた動き解析を適用した画像のみの手法を提案する。
本稿では,ハンドヘルドおよびボディマウントデバイスにおけるカメラの揺らぎ問題に対処し,性能と精度を著しく低下させることができる。
これはまた、ユーザの即時環境に適応する堅牢でリアルタイムなソリューションを提供する。
- 参考スコア(独自算出の注目度): 3.837186701755568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion analysis plays a critical role in various applications, from virtual reality and augmented reality to assistive visual navigation. Traditional self-driving technologies, while advanced, typically do not translate directly to pedestrian applications due to their reliance on extensive sensor arrays and non-feasible computational frameworks. This highlights a significant gap in applying these solutions to human users since human navigation introduces unique challenges, including the unpredictable nature of human movement, limited processing capabilities of portable devices, and the need for directional responsiveness due to the limited perception range of humans. In this project, we introduce an image-only method that applies motion analysis using optical flow with ego-motion compensation to predict Motor Focus-where and how humans or machines focus their movement intentions. Meanwhile, this paper addresses the camera shaking issue in handheld and body-mounted devices which can severely degrade performance and accuracy, by applying a Gaussian aggregation to stabilize the predicted motor focus area and enhance the prediction accuracy of movement direction. This also provides a robust, real-time solution that adapts to the user's immediate environment. Furthermore, in the experiments part, we show the qualitative analysis of motor focus estimation between the conventional dense optical flow-based method and the proposed method. In quantitative tests, we show the performance of the proposed method on a collected small dataset that is specialized for motor focus estimation tasks.
- Abstract(参考訳): モーション分析は、仮想現実や拡張現実から補助視覚ナビゲーションまで、様々なアプリケーションにおいて重要な役割を果たす。
従来の自動運転技術は先進的ではあるが、広範囲のセンサーアレイや非実用的な計算フレームワークに依存しているため、歩行者アプリケーションに直接変換することはない。
このことは、人間のナビゲーションが人間の動作の予測不可能な性質、携帯機器の処理能力の制限、人間の知覚範囲の制限による指向性応答性の必要性など、ユニークな課題をもたらすため、これらのソリューションを人間のユーザに適用する際の大きなギャップを浮き彫りにしている。
本稿では,運動強調位置の予測と人や機械の動作意図の焦点付けを行うために,光学的フローを用いた動き解析をエゴモーション補償で適用する画像専用手法を提案する。
本稿では、ガウスアグリゲーションを適用して、予測モータ焦点領域を安定化させ、移動方向の予測精度を高めることにより、ハンドヘルドおよびボディマウントデバイスにおけるカメラの揺らぎ問題に対処する。
これはまた、ユーザの即時環境に適応する堅牢でリアルタイムなソリューションを提供する。
さらに,本実験では,従来の高密度光フローベース手法と提案手法のモータ焦点推定の定性解析を行った。
定量的なテストでは,運動焦点推定タスクに特化して収集した小型データセット上で,提案手法の性能を示す。
関連論文リスト
- OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Agile gesture recognition for low-power applications: customisation for generalisation [41.728933551492275]
自動手ジェスチャー認識は、長い間AIコミュニティの焦点だった。
低消費電力センサデバイスで動作するジェスチャー認識技術への需要が高まっている。
本研究では,適応的およびアジャイル的誤り訂正を用いたパターン認識システムのための新しい手法を提示する。
論文 参考訳(メタデータ) (2024-03-12T19:34:18Z) - HandyPriors: Physically Consistent Perception of Hand-Object
Interactions with Differentiable Priors [45.75318635639419]
我々は、人間と物体の相互作用シーンにおけるポーズ推定のための統一的で汎用的なパイプラインであるHandyPriorsを提案する。
提案手法では,入力画像やセグメンテーションマスクのレンダリング先と物理前のレンダリング先とを併用し,フレーム間の浸透と相対スライディングを緩和する。
我々は,HandyPriorsがポーズ推定タスクにおいて同等あるいは優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2023-11-28T06:42:44Z) - Robust Self-Supervised Extrinsic Self-Calibration [25.727912226753247]
マルチカメラによるビデオからの単眼深度推定は、環境を判断する上で有望な方法である。
本稿では,自己教師型単眼深度と自我運動学習の原理を基礎として,外因性キャリブレーションの新たな手法を提案する。
論文 参考訳(メタデータ) (2023-08-04T06:20:20Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Monitoring and Adapting the Physical State of a Camera for Autonomous
Vehicles [10.490646039938252]
本稿では,データおよび物理モデルに基づくカメラの汎用的・タスク指向型自己維持フレームワークを提案する。
このフレームワークを現実世界の地上車両に実装し、カメラが粗悪な状況に対応するためにパラメータを調整できることを実証する。
われわれのフレームワークは、カメラの健康状態を監視し維持するための実用的なソリューションを提供するだけでなく、より高度な問題に対処するための拡張の基盤としても機能する。
論文 参考訳(メタデータ) (2021-12-10T11:14:44Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - MotionHint: Self-Supervised Monocular Visual Odometry with Motion
Constraints [70.76761166614511]
モノクローナルビジュアル・オドメトリー(VO)のための新しい自己教師型アルゴリズムMotionHintを提案する。
我々のMotionHintアルゴリズムは、既存のオープンソースSSM-VOシステムに容易に適用できる。
論文 参考訳(メタデータ) (2021-09-14T15:35:08Z) - Estimating Egocentric 3D Human Pose in Global Space [70.7272154474722]
本稿では,魚眼カメラを用いた自己中心型3次元体姿勢推定法を提案する。
提案手法は, 定量的, 定性的に, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-04-27T20:01:57Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。