論文の概要: Android Controlled Mobile Robot Design with IP Camera
- arxiv url: http://arxiv.org/abs/2102.01511v1
- Date: Wed, 20 Jan 2021 19:16:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 03:13:41.506886
- Title: Android Controlled Mobile Robot Design with IP Camera
- Title(参考訳): IPカメラを用いたAndroid制御移動ロボットの設計
- Authors: Emre Demir, Ahmet Gokcen, Yakup Kutlu
- Abstract要約: セキュリティロボット、補助ロボット、または制御ロボットとして機能することができる。
このモードでは、ロボットはその周囲に配置された超音波センサーの助けを借りて周囲を検出し、エンコーダを使用して通過する場所を追跡します。
このモードでは、ユーザはAndroidオペレーティングシステムでロボットの所望の方向を移動することができる。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study Arduino card based mobile robot design was realized. This robot
can serve as a security robot, an auxiliary robot or a control robot. The
designed robot has two operation modes. The first operating mode is autonomous
mode. In this mode, the robot detects the surroundings with the help of
ultrasonic sensors placed around it, and keeps track of the places it passes by
using the encoder. It is able to navigate without hitting any place and passing
from where it passes, and it transmits the patient's pulse and temperature
condition to the user by other systems installed on it. Also the IP camera
sends the scene on the screen. The emergency button to be placed next to the
patient sends information to the user in emergency situations. If the
abnormality is detected in the temperature and pulse again, the user gives a
message. When the pre-recorded drug use times come, the system can alert the
patient. The second mode is manual mode. In this mode, the user can move the
desired direction of the robot with the Android operating system. In addition,
all data received in autonomous mode can be sent to the user. Thus, the user
can control the mobile robot with the camera image even if it is not in the
vicinity of the robot.
- Abstract(参考訳): 本研究では,Arduinoカードを用いた移動ロボットの設計を実現する。
セキュリティロボット、補助ロボット、または制御ロボットとして機能することができる。
ロボットには2つの操作モードがある。
最初の操作モードは自律モードである。
このモードでは、ロボットは超音波センサーの助けを借りて周囲を検知し、エンコーダを使って通過する場所を追跡する。
任意の場所にぶつかって通り抜けることなくナビゲートでき、その上に設置された他のシステムによって患者の脈拍と温度条件をユーザーに送信する。
また、ipカメラが画面上のシーンを送信する。
患者の隣に置かれる緊急ボタンは、緊急時に利用者に情報を送信する。
温度とパルスで再び異常が検出されると、ユーザーはメッセージを送る。
記録済みの薬物使用時間が来たら、システムは患者に警告する。
第2モードは手動モードである。
このモードでは、ユーザはAndroidオペレーティングシステムでロボットの所望の方向を移動することができる。
さらに、自律モードで受信されたすべてのデータは、ユーザに送信することができる。
これにより、ユーザは、ロボットの近傍になくても、カメラ画像で移動ロボットを制御することができる。
関連論文リスト
- Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Accessible Robot Control in Mixed Reality [0.0]
主に身体障害者を対象とする。
ホロレン2の視線追跡および頭部運動追跡技術は、制御コマンドの送信に利用される。
論文 参考訳(メタデータ) (2023-06-04T16:05:26Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Know Thyself: Transferable Visuomotor Control Through Robot-Awareness [22.405839096833937]
新しいロボットをスクラッチからトレーニングするためには、通常大量のロボット固有のデータを生成する必要がある。
簡単なロボット「自己認識」を活用する「ロボット認識」ソリューションパラダイムを提案する。
シミュレーションおよび実際のロボットにおけるテーブルトップ操作に関する実験により、これらのプラグインの改善により、ビジュモータコントローラの転送性が劇的に向上することを示した。
論文 参考訳(メタデータ) (2021-07-19T17:56:04Z) - Prescient teleoperation of humanoid robots [6.230751621285322]
本研究では,ヒューマノイドロボットが実際に受信する前にコマンドを実行するシステムを提案する。
ロボットは機械学習モデルに問い合わせることで、将来的なコマンドを継続的に予測する。
オペレーターは、複数の全身操作タスクで最大2秒の遅延でヒューマノイドロボットをうまく制御することができた。
論文 参考訳(メタデータ) (2021-07-02T21:10:35Z) - Embedded Computer Vision System Applied to a Four-Legged Line Follower
Robot [0.0]
本プロジェクトは,ロボットの視覚を動作に結びつけるコンピュータビジョン組み込みシステムを用いて,ロボットを駆動することを目的としている。
このロボットは典型的な移動ロボットの課題であるラインフォローに適用される。
次に移動する場所の決定は、経路の線の中心に基づいており、完全に自動化されている。
論文 参考訳(メタデータ) (2021-01-12T23:52:53Z) - OpenBot: Turning Smartphones into Robots [95.94432031144716]
現在のロボットは高価か、感覚豊かさ、計算能力、通信能力に重大な妥協をもたらす。
我々はスマートフォンを活用して、センサースイート、強力な計算能力、最先端通信チャネル、繁栄するソフトウェアエコシステムへのアクセスなどを備えたロボットを装備することを提案する。
われわれは50ドルの小型電気自動車を設計し、標準のAndroidスマートフォンのロボットボディとして機能する。
論文 参考訳(メタデータ) (2020-08-24T18:04:50Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。