論文の概要: Vision System of Curling Robots: Thrower and Skip
- arxiv url: http://arxiv.org/abs/2204.09221v1
- Date: Wed, 20 Apr 2022 04:46:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 23:40:54.923878
- Title: Vision System of Curling Robots: Thrower and Skip
- Title(参考訳): カーリングロボットの視覚システム:投球機とスキップ
- Authors: Seongwook Yoon, Gayoung Kim, Myungpyo Hong, and Sanghoon Sull
- Abstract要約: 投球ロボットと投球ロボットの2種類の視覚システムを構築した。
投球ロボットの視覚システムは、2次元カーリングシート上での3DoFポーズを初期化する。
スキップロボットの視覚システムは、カーリングシート上のすべての石を正確に認識する。
- 参考スコア(独自算出の注目度): 6.1947705963945845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We built a vision system of curling robot which can be expected to play with
human curling player. Basically, we built two types of vision systems for
thrower and skip robots, respectively. First, the thrower robot drives towards
a given point of curling sheet to release a stone. Our vision system in the
thrower robot initialize 3DoF pose on two dimensional curling sheet and updates
the pose to decide for the decision of stone release. Second, the skip robot
stands at the opposite side of the thrower robot and monitors the state of the
game to make a strategic decision. Our vision system in the skip robot
recognize every stones on the curling sheet precisely. Since the viewpoint is
quite perspective, many stones are occluded by each others so it is challenging
to estimate the accurate position of stone. Thus, we recognize the ellipses of
stone handles outline to find the exact midpoint of the stones using
perspective Hough transform. Furthermore, we perform tracking of a thrown stone
to produce a trajectory for ice condition analysis. Finally, we implemented our
vision systems on two mobile robots and successfully perform a single turn and
even careful gameplay. Specifically, our vision system includes three cameras
with different viewpoint for their respective purposes.
- Abstract(参考訳): 人間のカーリング選手と遊ぶことが期待できるカーリングロボットの視覚システムを構築した。
基本的に、投げ手とスキップロボットのための2種類の視覚システムを構築しました。
まず、投げ手ロボットはカーリングシートの所定の点に向かって走行し、石を放出する。
投球ロボットの視覚システムは,2次元カーリングシート上の3dofポーズを初期化し,その姿勢を更新してストーンリリースの決定を決定する。
第2に、投球ロボットの反対側にスキップロボットが立っており、ゲームの状態を監視して戦略的決定を行う。
スキップロボットの視覚システムは,カーリングシート上のすべての石を正確に認識する。
視点から見ると、多くの石が互いに混ざり合っているため、正確な石の位置を推定することは困難である。
したがって, 石柄の楕円形を認識し, パースペクティブ・ハフ変換を用いて, 石の正確な中間点を求める。
さらに, 投げられた石の追跡を行い, 氷の状態解析の軌跡を生成する。
最後に,2台の移動ロボットに視覚システムを実装し,一ターンでゲームプレイを成功させた。
具体的には、視覚システムは、それぞれの目的に対して異なる視点を持つ3つのカメラを含む。
関連論文リスト
- Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - Vid2Robot: End-to-end Video-conditioned Policy Learning with Cross-Attention Transformers [36.497624484863785]
Vid2Robotは、人間のビデオで操作タスクを入力として表現し、ロボットアクションを生成する、エンドツーエンドのビデオ条件付きポリシーである。
我々のモデルは、ビデオから人間とロボットのアクションの統一表現を学習するために、プロンプトロボット軌道対の大規模なデータセットを用いて訓練されている。
実世界のロボット上でのVid2Robotの評価を行い、人間のプロンプトビデオを用いた場合、BC-Zよりも20%以上の改善が見られた。
論文 参考訳(メタデータ) (2024-03-19T17:47:37Z) - Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Legged Locomotion in Challenging Terrains using Egocentric Vision [70.37554680771322]
本稿では,階段,縁石,石段,隙間を横断できる最初のエンドツーエンド移動システムを提案する。
この結果を,1台の前面深度カメラを用いた中型四足歩行ロボットに示す。
論文 参考訳(メタデータ) (2022-11-14T18:59:58Z) - Hierarchical Reinforcement Learning for Precise Soccer Shooting Skills
using a Quadrupedal Robot [76.04391023228081]
本研究では,四足歩行ロボットが実世界において,強化学習を用いて精度の高い射撃技術を実現できるという課題に対処する。
本研究では, 深層強化学習を活用して頑健な動作制御政策を訓練する階層的枠組みを提案する。
提案するフレームワークをA1四足歩行ロボットに展開し、実世界のランダムなターゲットに向けて正確にボールを発射できるようにする。
論文 参考訳(メタデータ) (2022-08-01T22:34:51Z) - Intelligent Motion Planning for a Cost-effective Object Follower Mobile
Robotic System with Obstacle Avoidance [0.2062593640149623]
本稿では,ロボットビジョンと深層学習を用いて,必要な直線および角速度を求めるロボットシステムを提案する。
私たちが提案している新しい手法は、任意の種類の照明において、ユニークな色付けされた物体の位置を検出するのに正確である。
論文 参考訳(メタデータ) (2021-09-06T19:19:47Z) - Embedded Computer Vision System Applied to a Four-Legged Line Follower
Robot [0.0]
本プロジェクトは,ロボットの視覚を動作に結びつけるコンピュータビジョン組み込みシステムを用いて,ロボットを駆動することを目的としている。
このロボットは典型的な移動ロボットの課題であるラインフォローに適用される。
次に移動する場所の決定は、経路の線の中心に基づいており、完全に自動化されている。
論文 参考訳(メタデータ) (2021-01-12T23:52:53Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。