論文の概要: Algorithm Development for Controlling Movement of a Robotic Platform by
Digital Image Processing
- arxiv url: http://arxiv.org/abs/2205.11666v1
- Date: Mon, 23 May 2022 23:14:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 05:36:30.583674
- Title: Algorithm Development for Controlling Movement of a Robotic Platform by
Digital Image Processing
- Title(参考訳): ディジタル画像処理によるロボットプラットフォームの移動制御のためのアルゴリズム開発
- Authors: Benjamin Andres Huerfano Zapata, Humberto Numpaque Lopez and Cindy
Lorena Diaz Murillo
- Abstract要約: このアルゴリズムはC言語で開発され、Open CVライブラリを使ってDev-platform C + 上のビデオカメラで撮影した画像を処理した。
アルゴリズムのヒストグラム解析と画像のセグメンテーションが開発され、プラットフォームの位置を正確に決定できるようになった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The following work shows an algorithm that can process images digitally with
the goal of control the movement of a mobile robotic platform in a certain
environment. The platform is identified with a specific color, and displacement
environment of the platform shift has identified obstacles with different
colors, for both cases it worked with the RGB color scale. To obtain the
control's movement of the robotic platform, the algorithm was developed in C
programming language, and used the Open CV libraries for processing images
captured by a video camera on the Dev-platform C + +. The video camera was
previously calibrated using ZHANG technique where parameters were obtained
focal length and tilt focal pixel. In the algorithm histogram analysis and
segmentation of the image were developed, allowing to determine exactly the
relative position of the platform with respect to the obstacles and movement
strategy to follow.
- Abstract(参考訳): 以下の研究は、ある環境における移動ロボットプラットフォームの移動を制御することを目的として、画像をデジタル的に処理できるアルゴリズムを示している。
プラットフォームは特定の色で識別され、プラットフォームシフトの変位環境は異なる色の障害物を識別しており、どちらもrgbカラースケールで動作している。
ロボットプラットフォームの制御の移動を得るために、このアルゴリズムはc言語で開発され、開発プラットフォームのc + +でビデオカメラが撮影した画像を処理するためにオープンcvライブラリを使用した。
ビデオカメラはzhang法でキャリブレーションされ、パラメーターは焦点距離と焦点画素の傾きが得られた。
アルゴリズムのヒストグラム解析と画像のセグメンテーションが開発され, 障害物や移動戦略に対するプラットフォームの相対的な位置を正確に決定できるようになった。
関連論文リスト
- Design and Identification of Keypoint Patches in Unstructured Environments [7.940068522906917]
画像内のキーポイント識別は、生画像から2D座標への直接マッピングを可能にする。
様々なスケール,回転,カメラ投影を考慮した,単純な4つの異なる設計を提案する。
様々な画像劣化条件下でのロバスト検出を確保するために,スーパーポイントネットワークをカスタマイズする。
論文 参考訳(メタデータ) (2024-10-01T09:05:50Z) - Robot Manipulation in Salient Vision through Referring Image Segmentation and Geometric Constraints [1.256530849333063]
言語表現からの微細粒界と構造セグメンテーションのための軽量参照画像セグメンテーションモデルを提案する。
実世界におけるロボット制御を実現するために,視覚サーボシステムにモデルを配置する。
論文 参考訳(メタデータ) (2024-09-17T19:40:28Z) - Unifying Scene Representation and Hand-Eye Calibration with 3D Foundation Models [13.58353565350936]
環境の表現はロボティクスにおける中心的な課題である。
伝統的に、ユーザーはチェッカーボードやエイプリルタグなどの特定の外部マーカーを使用してカメラを校正する必要がある。
本稿では,マニピュレータ搭載RGBカメラを搭載したロボットシステムへの3Dファウンデーション表現の統合を提唱する。
論文 参考訳(メタデータ) (2024-04-17T18:29:32Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Self-Supervised Learning of Object Segmentation from Unlabeled RGB-D
Videos [11.40098981859033]
本研究では,RGB画像中の剛体物体をセグメント化するための自己教師型学習システムを提案する。
提案するパイプラインは、静的オブジェクトのラベル付けされていないRGB-Dビデオに基づいてトレーニングされている。
論文 参考訳(メタデータ) (2023-04-09T23:13:39Z) - Construction of Object Boundaries for the Autopilotof a Surface Robot
from Satellite Imagesusing Computer Vision Methods [101.18253437732933]
衛星地図上での水物体を検出する手法を提案する。
輪郭のGPS座標を計算するアルゴリズムを作成する。
提案アルゴリズムは,表面ロボットオートパイロットモジュールに適したフォーマットで結果の保存を可能にする。
論文 参考訳(メタデータ) (2022-12-05T12:07:40Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - RGB-Only Reconstruction of Tabletop Scenes for Collision-Free
Manipulator Control [71.51781695764872]
世界のRGBビューのみを用いたロボットマニピュレータの無衝突制御システムを提案する。
テーブルトップシーンの知覚入力は、ロボットエンドエフェクタにハンドヘルドまたは装着されたRGBカメラの複数の画像によって提供される。
シーンの3次元形状を再構成するために、NeRFのようなプロセスが使用され、そこからユークリッド完全符号距離関数(ESDF)が計算される。
次に、モデル予測制御アルゴリズムを用いてマニピュレータを制御し、ESDFの障害物を避けながら所望のポーズに達する。
論文 参考訳(メタデータ) (2022-10-21T01:45:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。