論文の概要: OWL: A Novel Approach to Machine Perception During Motion
- arxiv url: http://arxiv.org/abs/2603.05686v1
- Date: Thu, 05 Mar 2026 21:22:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:44.498452
- Title: OWL: A Novel Approach to Machine Perception During Motion
- Title(参考訳): OWL: 動作中の機械知覚に対する新しいアプローチ
- Authors: Daniel Raviv, Juan D. Yepes,
- Abstract要約: 動作中の3次元知覚の複雑な課題に対処するために,知覚関連機能OWLを導入する。
その値は2つの基本的な視覚運動キューから直接導出され、1ポイント当たりの1セットのキュー値が瞬時に得られる。
OWLは、重要な知覚能力を強化し、単純化する統一的で分析的な時間ベースのアプローチを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a perception-related function, OWL, designed to address the complex challenges of 3D perception during motion. It derives its values directly from two fundamental visual motion cues, with one set of cue values per point per time instant. During motion, two visual motion cues relative to a fixation point emerge: 1) perceived local visual looming of points near the fixation point, and 2) perceived rotation of the rigid object relative to the fixation point. It also expresses the relation between two well-known physical quantities, the relative instantaneous directional range and directional translation in 3D between the camera and any visible 3D point, without explicitly requiring their measurement or prior knowledge of their individual values. OWL offers a unified, analytical time-based approach that enhances and simplifies key perception capabilities, including scaled 3D mapping and camera heading. Simulations demonstrate that OWL achieves geometric constancy of 3D objects over time and enables scaled 3D scene reconstruction from visual motion cues alone. By leveraging direct measurements from raw visual motion image sequences, OWL values can be obtained without prior knowledge of stationary environments, moving objects, or camera motion. This approach employs minimalistic, pixel-based, parallel computations, providing an alternative real-time representation for 3D points in relative motion. OWL bridges the gap between theoretical concepts and practical applications in robotics and autonomous navigation and may unlock new possibilities for real-time decision-making and interaction, potentially serving as a building block for next-generation autonomous systems. This paper offers an alternative perspective on machine perception, with implications that may extend to natural perception and contribute to a better understanding of behavioral psychology and neural functionality.
- Abstract(参考訳): 動作中の3次元知覚の複雑な課題に対処するために,知覚関連機能OWLを導入する。
その値は2つの基本的な視覚運動キューから直接導出され、1ポイント当たりの1セットのキュー値が瞬時に得られる。
動作中、固定点に対する2つの視覚運動手がかりが出現する。
1)固定点付近の点の局所的な視力低下と認識
2) 固定点に対する剛体物体の回転を知覚した。
また、カメラと任意の可視3Dポイント間の3Dの相対的な瞬間的方向範囲と方向変換という2つのよく知られた物理量との関係を、個々の値の計測や事前知識を明示的に必要とせずに表現する。
OWLは、拡張された3Dマッピングやカメラの向きなど、重要な知覚能力を強化し、単純化する、統一的で分析的な時間ベースのアプローチを提供する。
シミュレーションにより、OWLは時間とともに3次元物体の幾何学的一貫性を達成し、視覚的な動きだけで3次元シーンを再現できることが示されている。
生の視覚運動画像シーケンスからの直接測定を利用することで、静止環境、移動物体、カメラモーションの事前知識を必要とせずにOWL値を得ることができる。
このアプローチは最小限のピクセルベースの並列計算を採用し、相対運動における3Dポイントの代替リアルタイム表現を提供する。
OWLは、ロボット工学と自律ナビゲーションにおける理論的概念と実践的応用のギャップを埋め、リアルタイムな意思決定とインタラクションの新たな可能性を解き放ち、次世代の自律システムのビルディングブロックとして機能する可能性がある。
本稿では、自然な知覚にまで拡張し、行動心理学や神経機能に対する理解を深めることのできる、機械知覚の代替的視点を提供する。
関連論文リスト
- Decoupling Dynamic Monocular Videos for Dynamic View Synthesis [50.93409250217699]
動的モノクロビデオからの動的ビュー合成の課題を教師なしで解決する。
具体的には、動的物体の運動を物体の動きとカメラの動きに分離し、教師なし表面の整合性およびパッチベースのマルチビュー制約によって規則化する。
論文 参考訳(メタデータ) (2023-04-04T11:25:44Z) - MotionBERT: A Unified Perspective on Learning Human Motion
Representations [46.67364057245364]
本研究では,大規模・異種データ資源から人の動き表現を学習することで,人間中心のビデオタスクに取り組むための統一的な視点を示す。
本研究では,ノイズのある部分的な2次元観測から基礎となる3次元運動を復元するために,モーションエンコーダを訓練する事前学習段階を提案する。
動作エンコーダをDST(Dual-stream Spatio-temporal Transformer)ニューラルネットワークで実装する。
論文 参考訳(メタデータ) (2022-10-12T19:46:25Z) - MoCaNet: Motion Retargeting in-the-wild via Canonicalization Networks [77.56526918859345]
そこで本研究では,制御された環境から3次元動作タスクを実現する新しいフレームワークを提案する。
モーションキャプチャシステムや3D再構成手順を使わずに、2Dモノクロ映像のキャラクタから3Dキャラクタへの体動を可能にする。
論文 参考訳(メタデータ) (2021-12-19T07:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。