論文の概要: Integration of Robotics, Computer Vision, and Algorithm Design: A
Chinese Poker Self-Playing Robot
- arxiv url: http://arxiv.org/abs/2312.09455v1
- Date: Tue, 28 Nov 2023 06:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 14:11:22.005618
- Title: Integration of Robotics, Computer Vision, and Algorithm Design: A
Chinese Poker Self-Playing Robot
- Title(参考訳): ロボット工学, コンピュータビジョン, アルゴリズム設計の統合: 中国のポーカー・セルフプレイロボット
- Authors: Kuan-Huang Yu
- Abstract要約: このロボットは、カスタムの吸盤機構を使ってカードを拾い、プレイする。
13枚のカードを最適な手3、5、5枚のカードに分割するために、欲張りのアルゴリズムが開発された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Chinese Poker Self-Playing Robot, an integrated system
enabling a TM5-900 robotic arm to independently play the four-person card game
Chinese poker. The robot uses a custom sucker mechanism to pick up and play
cards. An object detection model based on YOLOv5 is utilized to recognize the
suit and number of 13 cards dealt to the robot. A greedy algorithm is developed
to divide the 13 cards into optimal hands of 3, 5, and 5 cards to play.
Experiments demonstrate that the robot can successfully obtain the cards,
identify them using computer vision, strategically select hands to play using
the algorithm, and physically play the selected cards in the game. The system
showcases effective integration of mechanical design, computer vision,
algorithm design, and robotic control to accomplish the complex task of
independently playing cards.
- Abstract(参考訳): 本稿では、TM5-900ロボットアームが4人称カードゲームチャイニーズポーカーを独立してプレイできる統合システムであるチャイナポーカーセルフプレイングロボットを提案する。
このロボットはカスタムの吸盤機構を使ってカードを拾い、プレイする。
YOLOv5に基づく物体検出モデルを用いて、ロボットに処理された13枚のカードのスーツと枚数を認識する。
13枚のカードを3,5,5枚のカードの最適な手に分割するためのグリーディアルゴリズムを開発した。
実験により、ロボットはカードの入手に成功し、コンピュータビジョンを使って識別し、アルゴリズムを使って戦略的に手を選び、ゲーム内で物理的にカードをプレイできることが示されている。
このシステムは、メカニカルデザイン、コンピュータビジョン、アルゴリズム設計、ロボット制御を効果的に統合し、独立してカードをプレイする複雑なタスクを達成する。
関連論文リスト
- RP1M: A Large-Scale Motion Dataset for Piano Playing with Bi-Manual Dexterous Robot Hands [57.64308229980045]
ロボットピアノ100万のデータセットには,100万回以上の軌跡の動作データをバイマニュアルで演奏するロボットピアノが組み込まれている。
指の配置を最適な移動問題として定式化し、大量の未収録曲の自動アノテーションを可能にする。
既存の模倣学習手法のベンチマークでは、RP1Mを活用することにより、最先端のロボットピアノ演奏性能に達することが示されている。
論文 参考訳(メタデータ) (2024-08-20T17:56:52Z) - Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - From One Hand to Multiple Hands: Imitation Learning for Dexterous
Manipulation from Single-Camera Teleoperation [26.738893736520364]
我々は,iPadとコンピュータのみで3Dデモを効率的に収集する,新しい単一カメラ遠隔操作システムを提案する。
我々は,操作者の手の構造と形状が同じであるマニピュレータである物理シミュレータにおいて,各ユーザ向けにカスタマイズされたロボットハンドを構築する。
データを用いた模倣学習では、複数の複雑な操作タスクでベースラインを大幅に改善する。
論文 参考訳(メタデータ) (2022-04-26T17:59:51Z) - Robotic Telekinesis: Learning a Robotic Hand Imitator by Watching Humans
on Youtube [24.530131506065164]
我々は、人間なら誰でもロボットの手と腕を制御できるシステムを構築します。
ロボットは、人間のオペレーターを1台のRGBカメラで観察し、その動作をリアルタイムで模倣する。
我々はこのデータを利用して、人間の手を理解するシステムを訓練し、人間のビデオストリームをスムーズで、素早く、安全に、意味論的に誘導デモに類似したロボットのハンドアーム軌道に再ターゲティングする。
論文 参考訳(メタデータ) (2022-02-21T18:59:59Z) - Embedded Computer Vision System Applied to a Four-Legged Line Follower
Robot [0.0]
本プロジェクトは,ロボットの視覚を動作に結びつけるコンピュータビジョン組み込みシステムを用いて,ロボットを駆動することを目的としている。
このロボットは典型的な移動ロボットの課題であるラインフォローに適用される。
次に移動する場所の決定は、経路の線の中心に基づいており、完全に自動化されている。
論文 参考訳(メタデータ) (2021-01-12T23:52:53Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。