論文の概要: Mechanical Automation with Vision: A Design for Rubik's Cube Solver
- arxiv url: http://arxiv.org/abs/2508.12469v1
- Date: Sun, 17 Aug 2025 18:49:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.784989
- Title: Mechanical Automation with Vision: A Design for Rubik's Cube Solver
- Title(参考訳): ビジョンによるメカニカル・オートメーション:ルービックキューブ・ソルバーの設計
- Authors: Abhinav Chalise, Nimesh Gopal Pradhan, Nishan Khanal, Prashant Raj Bista, Dinesh Baniya Kshatri,
- Abstract要約: 重要なソフトウェアコンポーネントは、Unityで設計されたユーザフレンドリーなグラフィカルユーザインタフェース(GUI)の開発である。
このシステムはKociembaのアルゴリズムを使用し、単一の自由度で物理的な操作はステッパーモーターとキューブとの相互作用の組み合わせによって行われる。
解を得るためには、システムはKociembaのアルゴリズムを使用し、単一の自由度で物理的な操作はステッパーモーターとキューブとの相互作用の組み合わせによって行われる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The core mechanical system is built around three stepper motors for physical manipulation, a microcontroller for hardware control, a camera and YOLO detection model for real-time cube state detection. A significant software component is the development of a user-friendly graphical user interface (GUI) designed in Unity. The initial state after detection from real-time YOLOv8 model (Precision 0.98443, Recall 0.98419, Box Loss 0.42051, Class Loss 0.2611) is virtualized on GUI. To get the solution, the system employs the Kociemba's algorithm while physical manipulation with a single degree of freedom is done by combination of stepper motors' interaction with the cube achieving the average solving time of ~2.2 minutes.
- Abstract(参考訳): コアメカニカルシステムは、物理的操作のための3つのステッパーモーター、ハードウェア制御のためのマイクロコントローラ、リアルタイム立方体状態検出のためのカメラとYOLO検出モデルを中心に構築されている。
重要なソフトウェアコンポーネントは、Unityで設計されたユーザフレンドリーなグラフィカルユーザインタフェース(GUI)の開発である。
リアルタイムYOLOv8モデル(Precision 0.98443, Recall 0.98419, Box Loss 0.42051, Class Loss 0.2611)から検出後の初期状態はGUI上で仮想化される。
解を得るためには、システムはコシエンバのアルゴリズムを使用し、ステッパーモータと立方体との相互作用を組み合わせて1自由度での物理的操作を行い、平均解解時間は約2.2分である。
関連論文リスト
- Real-Time Navigation for Autonomous Aerial Vehicles Using Video [11.414350041043326]
我々は,コンピュータビジョン(CV)アルゴリズムの作業量を削減するために,新しいマルコフ決定プロセス(MDP)フレームワークを導入する。
提案するフレームワークは,機能ベースとニューラルネットベースのオブジェクト検出タスクの両方に適用する。
これらの総合的なテストは、エネルギー消費と速度に大きな利点を示し、精度は限られている。
論文 参考訳(メタデータ) (2025-04-01T01:14:42Z) - MoSS: Monocular Shape Sensing for Continuum Robots [11.377027568901038]
本稿では,連続体型ロボットの形状センサに対する目と手の一眼的アプローチを提案する。
MoSSNetはステレオマッチングのコストを削減し、センサーハードウェアの要求を削減している。
データ収集とテストには2段式の腱駆動連続体ロボットが使用される。
論文 参考訳(メタデータ) (2023-03-02T01:14:32Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Robot Self-Calibration Using Actuated 3D Sensors [0.0]
本稿では,ロボットのキャリブレーションをオフラインのSLAM問題として扱う。
これにより、任意の眼深度センサのみを用いてロボットのキャリブレーションを行うことができる。
各種の3Dセンサーを装着した実ロボットに対して,システムの詳細評価を行った。
論文 参考訳(メタデータ) (2022-06-07T16:35:08Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Data-Efficient Learning for Complex and Real-Time Physical Problem
Solving using Augmented Simulation [49.631034790080406]
本稿では,大理石を円形迷路の中心まで航行する作業について述べる。
実システムと対話する数分以内に,複雑な環境で大理石を動かすことを学習するモデルを提案する。
論文 参考訳(メタデータ) (2020-11-14T02:03:08Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Recognition of 26 Degrees of Freedom of Hands Using Model-based approach
and Depth-Color Images [1.304892050913381]
このシステムは、1フレームあたり0.8秒の処理時間で26自由度を認識できる。
アルゴリズムはノイズに対して堅牢であり、ハードウェア要件は単一のカメラで単純である。
論文 参考訳(メタデータ) (2020-05-13T08:05:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。