論文の概要: DIJIT: A Robotic Head for an Active Observer
- arxiv url: http://arxiv.org/abs/2512.07998v1
- Date: Mon, 08 Dec 2025 19:37:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.70778
- Title: DIJIT: A Robotic Head for an Active Observer
- Title(参考訳): DIJIT:アクティブオブザーバのためのロボットヘッド
- Authors: Mostafa Kamali Tabrizi, Mingshi Chi, Bir Bikram Dey, Yu Qing Yuan, Markus D. Solbach, Yiqian Liu, Michael Jenkin, John K. Tsotsos,
- Abstract要約: アクティブなオブザーバとして振る舞う移動体エージェントを対象とした両眼ロボットヘッドであるDIJITについて述べる。
DIJITのデザインには9つの機械的自由度があり、カメラとレンズは4つの光学的自由度を提供する。
そこで我々は,サスカディックカメラの新たな動き法を提案する。
- 参考スコア(独自算出の注目度): 3.9258998714079123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present DIJIT, a novel binocular robotic head expressly designed for mobile agents that behave as active observers. DIJIT's unique breadth of functionality enables active vision research and the study of human-like eye and head-neck motions, their interrelationships, and how each contributes to visual ability. DIJIT is also being used to explore the differences between how human vision employs eye/head movements to solve visual tasks and current computer vision methods. DIJIT's design features nine mechanical degrees of freedom, while the cameras and lenses provide an additional four optical degrees of freedom. The ranges and speeds of the mechanical design are comparable to human performance. Our design includes the ranges of motion required for convergent stereo, namely, vergence, version, and cyclotorsion. The exploration of the utility of these to both human and machine vision is ongoing. Here, we present the design of DIJIT and evaluate aspects of its performance. We present a new method for saccadic camera movements. In this method, a direct relationship between camera orientation and motor values is developed. The resulting saccadic camera movements are close to human movements in terms of their accuracy.
- Abstract(参考訳): アクティブなオブザーバとして振る舞う移動体エージェントを対象とした両眼ロボットヘッドであるDIJITについて述べる。
DIJITのユニークな機能により、アクティブな視覚研究と人間の眼や頭頸部の動きの研究、相互関係、そしてそれぞれが視覚能力にどのように貢献するかが研究できる。
DIJITはまた、人間の視覚が視覚的なタスクと現在のコンピュータビジョンの方法を解決するために、目と頭の動きをどのように利用するかの違いを調べるためにも使われている。
DIJITのデザインは9つの機械的自由度を持ち、カメラとレンズは4つの光学的自由度を提供する。
機械設計の範囲と速度は人間の性能に匹敵する。
我々の設計には収束ステレオ、すなわち頂点、バージョン、サイクロねじれに必要な運動範囲が含まれています。
人間の視界と機械視界の両方において、これらの有用性の探求が進行中である。
本稿では,DIJITの設計と性能評価について述べる。
そこで我々は,サスカディックカメラの新たな動き法を提案する。
本手法では,カメラの向きとモータ値との直接的関係を考察する。
得られたサスカデックカメラの動きは、正確性の観点から人間の動きに近い。
関連論文リスト
- Look, Focus, Act: Efficient and Robust Robot Learning via Human Gaze and Foveated Vision Transformers [2.736848514829367]
人間の視覚は視線によって駆動される非常に活発なプロセスであり、ファベーションを通じてタスク関連領域に注意を向ける。
本研究では,ロボット政策に人間のようなアクティブな視線を取り入れることで,効率性とロバスト性を高める方法について検討する。
我々は人間の頭と首の動きをエミュレートするロボットビジョンシステムであるGIAVAを開発し、ファーベレート処理のための視線調整を行う。
論文 参考訳(メタデータ) (2025-07-21T17:44:10Z) - Emergent Active Perception and Dexterity of Simulated Humanoids from Visual Reinforcement Learning [69.71072181304066]
本稿では,擬似ヒューマノイドを用いた視覚駆動全身制御フレームワークであるPerceptive Dexterous Control (PDC)を紹介する。
PDCは、タスク仕様のためのエゴセントリックなビジョンのみを運用し、ビジュアルキューによるオブジェクト検索、ターゲット配置、スキル選択を可能にする。
強化学習によるスクラッチからのトレーニングは,能動探索などの創発的な行動を引き起こす可能性があることを示す。
論文 参考訳(メタデータ) (2025-05-18T07:33:31Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Tracking Without Re-recognition in Humans and Machines [12.591847867999636]
我々は、ビジュアルトラッキングのための最先端のディープニューラルネットワークが、同じことができるかどうか検討する。
PathTrackerは人間の観察者や機械に対象物を追跡するための視覚的課題である。
動作手がかりに基づく物体追跡に関係した生体脳の回路機構をモデル化する。
論文 参考訳(メタデータ) (2021-05-27T17:56:37Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Active Perception and Representation for Robotic Manipulation [0.8315801422499861]
本稿では、能動的知覚の利点を利用して操作タスクを遂行するフレームワークを提案する。
我々のエージェントは、視点変化を利用してオブジェクトをローカライズし、状態表現を自己監督的に学習し、ゴール指向のアクションを実行する。
バニラ深度Q-ラーニングアルゴリズムと比較して、我々のモデルは少なくとも4倍のサンプリング効率がある。
論文 参考訳(メタデータ) (2020-03-15T01:43:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。