論文の概要: Visual Servoing for Pose Control of Soft Continuum Arm in a Structured
Environment
- arxiv url: http://arxiv.org/abs/2202.05200v2
- Date: Fri, 11 Feb 2022 03:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 12:20:22.424758
- Title: Visual Servoing for Pose Control of Soft Continuum Arm in a Structured
Environment
- Title(参考訳): 構造化環境におけるソフトコンティニュムアームの姿勢制御のためのビジュアルサーボ
- Authors: Shivani Kamtikar, Samhita Marri, Benjamin Walt, Naveen Kumar
Uppalapati, Girish Krishnan, Girish Chowdhary
- Abstract要約: このレターでは、視覚サーボによりソフトアーム上でスムーズで堅牢な3D位置決めタスクを実行するディープニューラルネットワークベースの手法を提案する。
畳み込みニューラルネットワークは、所望のポーズを達成するのに必要な動作を予測するために訓練される。
カメラが見る所望画像と現在画像との誤差を低減するために比例制御法を施行する。
- 参考スコア(独自算出の注目度): 9.599112149531557
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: For soft continuum arms, visual servoing is a popular control strategy that
relies on visual feedback to close the control loop. However, robust visual
servoing is challenging as it requires reliable feature extraction from the
image, accurate control models and sensors to perceive the shape of the arm,
both of which can be hard to implement in a soft robot. This letter circumvents
these challenges by presenting a deep neural network-based method to perform
smooth and robust 3D positioning tasks on a soft arm by visual servoing using a
camera mounted at the distal end of the arm. A convolutional neural network is
trained to predict the actuations required to achieve the desired pose in a
structured environment. Integrated and modular approaches for estimating the
actuations from the image are proposed and are experimentally compared. A
proportional control law is implemented to reduce the error between the desired
and current image as seen by the camera. The model together with the
proportional feedback control makes the described approach robust to several
variations such as new targets, lighting, loads, and diminution of the soft
arm. Furthermore, the model lends itself to be transferred to a new environment
with minimal effort.
- Abstract(参考訳): 柔らかい連続腕では、視覚サーボは制御ループを閉じるために視覚フィードバックに依存する一般的な制御戦略である。
しかし、堅牢な視覚サーボは、画像から信頼できる特徴抽出、正確な制御モデルとセンサーが腕の形を知覚するために必要であり、どちらもソフトロボットでは実装が難しいため、難しい。
この手紙は、腕の先端にカメラを設置した視覚サーボにより、ソフトアームに滑らかで堅牢な3D位置決めタスクを実行するディープニューラルネットワークベースの方法を提案することによって、これらの課題を回避する。
畳み込みニューラルネットワークは、構造化環境で所望のポーズを達成するために必要な動作を予測するために訓練される。
画像からアクチュエータを推定するための統合的およびモジュール的アプローチを提案し,実験的に比較した。
カメラが見る所望画像と現在画像との誤差を低減するために比例制御法を施行する。
このモデルと比例フィードバック制御は、新しいターゲット、照明、荷重、ソフトアームの縮小など、いくつかのバリエーションに対して堅牢なアプローチを与える。
さらに、モデルは最小限の労力で新しい環境に移されるようにもなっている。
関連論文リスト
- Neural Internal Model Control: Learning a Robust Control Policy via Predictive Error Feedback [16.46487826869775]
本稿では,モデルベース制御とRLベース制御を統合し,ロバスト性を高めるニューラル内部モデル制御を提案する。
我々のフレームワークは、剛体力学にニュートン・オイラー方程式を適用することで予測モデルを合理化し、複雑な高次元非線形性を捉える必要がなくなる。
本研究では,四足歩行ロボットと四足歩行ロボットにおけるフレームワークの有効性を実証し,最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T07:07:42Z) - Observe Then Act: Asynchronous Active Vision-Action Model for Robotic Manipulation [13.736566979493613]
本モデルでは,カメラのNext-Best-View(NBV)ポリシーとグリップのNext-Best Pose(NBP)ポリシーを直列接続し,数発の強化学習を用いてセンサ・モーター協調フレームワークでトレーニングする。
このアプローチにより、エージェントは3人称カメラを調整し、タスクゴールに基づいて環境を積極的に観察し、その後に適切な操作行動を推測することができる。
その結果,操作タスクにおける視覚的制約処理の有効性を示すとともに,ベースラインアルゴリズムを一貫して上回る結果が得られた。
論文 参考訳(メタデータ) (2024-09-23T10:38:20Z) - Towards Robust and Expressive Whole-body Human Pose and Shape Estimation [51.457517178632756]
全体のポーズと形状の推定は、単眼画像から人体全体の異なる振る舞いを共同で予測することを目的としている。
既存の手法では、既存のシナリオの複雑さの下で、しばしば劣化したパフォーマンスを示す。
全身のポーズと形状推定の堅牢性を高める新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-14T08:17:42Z) - Toward a Plug-and-Play Vision-Based Grasping Module for Robotics [0.0]
本稿では,複数のマニピュレータ間で容易に移動可能な視覚ベースの把握フレームワークを提案する。
このフレームワークは、オープンループ把持軌跡の多様なレパートリーを生成し、把握の多様性を維持しつつ、適応性を向上させる。
論文 参考訳(メタデータ) (2023-10-06T16:16:00Z) - Deformer: Dynamic Fusion Transformer for Robust Hand Pose Estimation [59.3035531612715]
既存の方法では、手のこもりが強かったり、ぼやけたりすると、手のポーズが難しい場合が多い。
ビデオでは、手の動きによって、片方のフレームに隠されたり、ぼやけたりして、手のさまざまな部分を観察することができる。
画像内の手の部分間の関係を暗黙的に推論するフレームワークであるDeformerを提案する。
論文 参考訳(メタデータ) (2023-03-09T02:24:30Z) - Lateral Ego-Vehicle Control without Supervision using Point Clouds [50.40632021583213]
既存の視覚に基づく横方向の車両制御に対する教師付きアプローチは、RGB画像を適切な操舵コマンドに直接マッピングすることができる。
本稿では、横方向の車両制御のための、より堅牢でスケーラブルなモデルをトレーニングするためのフレームワークを提案する。
オンライン実験により,本手法の性能は教師付きモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-03-20T21:57:32Z) - Neural Network Based Lidar Gesture Recognition for Realtime Robot
Teleoperation [0.0]
移動ロボット制御のための低複雑さライダージェスチャー認識システムを提案する。
このシステムは軽量で、限られた計算能力を持つ移動ロボット制御に適している。
ライダーの使用はシステムの堅牢性に寄与し、ほとんどの屋外環境での運用を可能にしている。
論文 参考訳(メタデータ) (2021-09-17T00:49:31Z) - Self-optimizing adaptive optics control with Reinforcement Learning for
high-contrast imaging [0.0]
本稿では,モデルレス強化学習を用いて,閉ループ予測制御のためのリカレントニューラルネットワークコントローラを最適化する方法について述べる。
シミュレーションでは,我々のアルゴリズムが高次変形可能なミラーの制御にも適用可能であることを示す。
論文 参考訳(メタデータ) (2021-08-24T10:02:55Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - PaMIR: Parametric Model-Conditioned Implicit Representation for
Image-based Human Reconstruction [67.08350202974434]
本研究では,パラメトリックボディモデルと自由形深部暗黙関数を組み合わせたパラメトリックモデル記述型暗黙表現(PaMIR)を提案する。
本手法は, 挑戦的なポーズや衣料品のタイプにおいて, 画像に基づく3次元再構築のための最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-08T02:26:19Z) - Goal-Conditioned End-to-End Visuomotor Control for Versatile Skill
Primitives [89.34229413345541]
本稿では,制御器とその条件をエンドツーエンドに学習することで,落とし穴を回避する条件付け手法を提案する。
本モデルでは,ロボットの動きのダイナミックな画像表現に基づいて,複雑な動作シーケンスを予測する。
代表的MPCおよびILベースラインに対するタスク成功の大幅な改善を報告した。
論文 参考訳(メタデータ) (2020-03-19T15:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。