論文の概要: Visual Servoing for Pose Control of Soft Continuum Arm in a Structured
Environment
- arxiv url: http://arxiv.org/abs/2202.05200v2
- Date: Fri, 11 Feb 2022 03:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 12:20:22.424758
- Title: Visual Servoing for Pose Control of Soft Continuum Arm in a Structured
Environment
- Title(参考訳): 構造化環境におけるソフトコンティニュムアームの姿勢制御のためのビジュアルサーボ
- Authors: Shivani Kamtikar, Samhita Marri, Benjamin Walt, Naveen Kumar
Uppalapati, Girish Krishnan, Girish Chowdhary
- Abstract要約: このレターでは、視覚サーボによりソフトアーム上でスムーズで堅牢な3D位置決めタスクを実行するディープニューラルネットワークベースの手法を提案する。
畳み込みニューラルネットワークは、所望のポーズを達成するのに必要な動作を予測するために訓練される。
カメラが見る所望画像と現在画像との誤差を低減するために比例制御法を施行する。
- 参考スコア(独自算出の注目度): 9.599112149531557
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: For soft continuum arms, visual servoing is a popular control strategy that
relies on visual feedback to close the control loop. However, robust visual
servoing is challenging as it requires reliable feature extraction from the
image, accurate control models and sensors to perceive the shape of the arm,
both of which can be hard to implement in a soft robot. This letter circumvents
these challenges by presenting a deep neural network-based method to perform
smooth and robust 3D positioning tasks on a soft arm by visual servoing using a
camera mounted at the distal end of the arm. A convolutional neural network is
trained to predict the actuations required to achieve the desired pose in a
structured environment. Integrated and modular approaches for estimating the
actuations from the image are proposed and are experimentally compared. A
proportional control law is implemented to reduce the error between the desired
and current image as seen by the camera. The model together with the
proportional feedback control makes the described approach robust to several
variations such as new targets, lighting, loads, and diminution of the soft
arm. Furthermore, the model lends itself to be transferred to a new environment
with minimal effort.
- Abstract(参考訳): 柔らかい連続腕では、視覚サーボは制御ループを閉じるために視覚フィードバックに依存する一般的な制御戦略である。
しかし、堅牢な視覚サーボは、画像から信頼できる特徴抽出、正確な制御モデルとセンサーが腕の形を知覚するために必要であり、どちらもソフトロボットでは実装が難しいため、難しい。
この手紙は、腕の先端にカメラを設置した視覚サーボにより、ソフトアームに滑らかで堅牢な3D位置決めタスクを実行するディープニューラルネットワークベースの方法を提案することによって、これらの課題を回避する。
畳み込みニューラルネットワークは、構造化環境で所望のポーズを達成するために必要な動作を予測するために訓練される。
画像からアクチュエータを推定するための統合的およびモジュール的アプローチを提案し,実験的に比較した。
カメラが見る所望画像と現在画像との誤差を低減するために比例制御法を施行する。
このモデルと比例フィードバック制御は、新しいターゲット、照明、荷重、ソフトアームの縮小など、いくつかのバリエーションに対して堅牢なアプローチを与える。
さらに、モデルは最小限の労力で新しい環境に移されるようにもなっている。
関連論文リスト
- Towards Robust and Expressive Whole-body Human Pose and Shape Estimation [51.457517178632756]
全体のポーズと形状の推定は、単眼画像から人体全体の異なる振る舞いを共同で予測することを目的としている。
既存の手法では、既存のシナリオの複雑さの下で、しばしば劣化したパフォーマンスを示す。
全身のポーズと形状推定の堅牢性を高める新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-14T08:17:42Z) - Toward a Plug-and-Play Vision-Based Grasping Module for Robotics [0.0]
本稿では,複数のマニピュレータ間で容易に移動可能な視覚ベースの把握フレームワークを提案する。
このフレームワークは、オープンループ把持軌跡の多様なレパートリーを生成し、把握の多様性を維持しつつ、適応性を向上させる。
論文 参考訳(メタデータ) (2023-10-06T16:16:00Z) - Controllable Motion Diffusion Model [59.52889433954535]
制御可能な運動拡散モデル(COMODO)の枠組みを提案する。
我々のフレームワークは自動回帰運動拡散モデル(A-MDM)から始まり、ステップごとに動きのシーケンスを生成する。
そこで本研究では,A-MDMモデル上での強化学習に基づく制御手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T07:48:34Z) - Deformer: Dynamic Fusion Transformer for Robust Hand Pose Estimation [59.3035531612715]
既存の方法では、手のこもりが強かったり、ぼやけたりすると、手のポーズが難しい場合が多い。
ビデオでは、手の動きによって、片方のフレームに隠されたり、ぼやけたりして、手のさまざまな部分を観察することができる。
画像内の手の部分間の関係を暗黙的に推論するフレームワークであるDeformerを提案する。
論文 参考訳(メタデータ) (2023-03-09T02:24:30Z) - Lateral Ego-Vehicle Control without Supervision using Point Clouds [50.40632021583213]
既存の視覚に基づく横方向の車両制御に対する教師付きアプローチは、RGB画像を適切な操舵コマンドに直接マッピングすることができる。
本稿では、横方向の車両制御のための、より堅牢でスケーラブルなモデルをトレーニングするためのフレームワークを提案する。
オンライン実験により,本手法の性能は教師付きモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-03-20T21:57:32Z) - Learning to Jump from Pixels [23.17535989519855]
我々は、高度にアジャイルな視覚的誘導行動の合成法であるDepth-based Impulse Control (DIC)を提案する。
DICは、モデルフリー学習の柔軟性を提供するが、地面反応力の明示的なモデルベース最適化により、振る舞いを規則化する。
提案手法をシミュレーションと実世界の両方で評価する。
論文 参考訳(メタデータ) (2021-10-28T17:53:06Z) - Neural Network Based Lidar Gesture Recognition for Realtime Robot
Teleoperation [0.0]
移動ロボット制御のための低複雑さライダージェスチャー認識システムを提案する。
このシステムは軽量で、限られた計算能力を持つ移動ロボット制御に適している。
ライダーの使用はシステムの堅牢性に寄与し、ほとんどの屋外環境での運用を可能にしている。
論文 参考訳(メタデータ) (2021-09-17T00:49:31Z) - Self-optimizing adaptive optics control with Reinforcement Learning for
high-contrast imaging [0.0]
本稿では,モデルレス強化学習を用いて,閉ループ予測制御のためのリカレントニューラルネットワークコントローラを最適化する方法について述べる。
シミュレーションでは,我々のアルゴリズムが高次変形可能なミラーの制御にも適用可能であることを示す。
論文 参考訳(メタデータ) (2021-08-24T10:02:55Z) - PaMIR: Parametric Model-Conditioned Implicit Representation for
Image-based Human Reconstruction [67.08350202974434]
本研究では,パラメトリックボディモデルと自由形深部暗黙関数を組み合わせたパラメトリックモデル記述型暗黙表現(PaMIR)を提案する。
本手法は, 挑戦的なポーズや衣料品のタイプにおいて, 画像に基づく3次元再構築のための最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-08T02:26:19Z) - NewtonianVAE: Proportional Control and Goal Identification from Pixels
via Physical Latent Spaces [9.711378389037812]
本稿では,潜在空間における比例制御性を誘導するために一意に設計された潜在動的学習フレームワークを提案する。
学習したダイナミックスモデルは画素からの比例制御を可能にし、視覚ベースのコントローラの動作クローンを劇的に単純化し、高速化し、実演からのスイッチングコントローラの模倣学習に適用した場合に、解釈可能なゴール発見を提供する。
論文 参考訳(メタデータ) (2020-06-02T21:41:38Z) - Goal-Conditioned End-to-End Visuomotor Control for Versatile Skill
Primitives [89.34229413345541]
本稿では,制御器とその条件をエンドツーエンドに学習することで,落とし穴を回避する条件付け手法を提案する。
本モデルでは,ロボットの動きのダイナミックな画像表現に基づいて,複雑な動作シーケンスを予測する。
代表的MPCおよびILベースラインに対するタスク成功の大幅な改善を報告した。
論文 参考訳(メタデータ) (2020-03-19T15:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。