論文の概要: AI for Green Spaces: Leveraging Autonomous Navigation and Computer Vision for Park Litter Removal
- arxiv url: http://arxiv.org/abs/2601.11876v1
- Date: Sat, 17 Jan 2026 02:05:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.351735
- Title: AI for Green Spaces: Leveraging Autonomous Navigation and Computer Vision for Park Litter Removal
- Title(参考訳): グリーンスペースのためのAI: 公園リッター除去のための自律ナビゲーションとコンピュータビジョンを活用する
- Authors: Christopher Kao, Akhil Pathapati, James Davis,
- Abstract要約: アメリカだけでも500億個のごみがある。
公園内のゴミを自律的にナビゲートし、識別し、拾い上げるロボットの構築を提案する。
- 参考スコア(独自算出の注目度): 2.5898691896017634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are 50 billion pieces of litter in the U.S. alone. Grass fields contribute to this problem because picnickers tend to leave trash on the field. We propose building a robot that can autonomously navigate, identify, and pick up trash in parks. To autonomously navigate the park, we used a Spanning Tree Coverage (STC) algorithm to generate a coverage path the robot could follow. To navigate this path, we successfully used Real-Time Kinematic (RTK) GPS, which provides a centimeter-level reading every second. For computer vision, we utilized the ResNet50 Convolutional Neural Network (CNN), which detects trash with 94.52% accuracy. For trash pickup, we tested multiple design concepts. We select a new pickup mechanism that specifically targets the trash we encounter on the field. Our solution achieved an overall success rate of 80%, demonstrating that autonomous trash pickup robots on grass fields are a viable solution.
- Abstract(参考訳): アメリカだけでも500億個のごみがある。
ピクニック客は畑にゴミを残す傾向があるので、草原がこの問題に寄与する。
公園内のゴミを自律的にナビゲートし、識別し、拾い上げるロボットの構築を提案する。
公園を自律的にナビゲートするために、私たちはSpanning Tree Coverage (STC)アルゴリズムを使用して、ロボットが追従できるカバレッジパスを生成しました。
この経路をナビゲートするために、我々は1秒ごとにセンチメートルレベルの読み取りを提供するリアルタイムキネマティック(RTK)GPS(Real-Time Kinematic)をうまく利用した。
コンピュータビジョンでは,94.52%の精度でゴミを検出するResNet50 Convolutional Neural Network (CNN)を利用した。
ゴミ拾いには、複数の設計概念を試した。
我々は、フィールドで遭遇するゴミを対象とする新しいピックアップメカニズムを選択する。
提案手法は総合的な成功率80%を達成し,草地における自律型ゴミ拾いロボットが有効なソリューションであることを実証した。
関連論文リスト
- Indoor Localization for Autonomous Robot Navigation [0.0]
本稿では,自律型ロボットの室内ナビゲーションにおける屋内位置決めシステム(IPS)の利用について検討する。
我々はA*経路計画アルゴリズムを開発し、ロボットが予測された方向をナビゲートできるようにした。
異なるネットワーク構造をテストした後、我々のロボットは、およそ50%の時間で角をナビゲートすることができた。
論文 参考訳(メタデータ) (2025-02-28T05:25:04Z) - An Efficient Ground-aerial Transportation System for Pest Control Enabled by AI-based Autonomous Nano-UAVs [45.07031440932014]
我々は、害虫検出のための小さな画像ベースの畳み込みニューラルネットワーク(CNN)を設計し、微調整し、最適化する。
我々のCNNは6.8フレーム/秒でリアルタイムに動作し、クレイジーフリーナノUAVに搭載されたGWT GAP9 System-on-Chip上で33mWが必要になります。
このシナリオでは、検査と治療の両方を行う従来の単座車両と比較して、効率的な輸送システムは最大20時間作業時間を節約できる。
論文 参考訳(メタデータ) (2025-02-20T11:14:55Z) - Self-supervised cost of transport estimation for multimodal path planning [5.097982452032821]
本研究では,ロボットが周囲の移動コストを見積もることができる自己教師型学習手法を開発した。
本手法は,マルチモーダルモビリティ・モルフォボット(M4)に応用し,その環境を走行・飛行・セグウェイ・クロールするロボットに適用する。
本稿では,Nvidia Jetson Orin Nano ロボット・コンピュータ・ユニットに実装した低計算コストについて述べる。
論文 参考訳(メタデータ) (2024-12-08T23:02:35Z) - POA: Passable Obstacles Aware Path-planning Algorithm for Navigation of
a Two-wheeled Robot in Highly Cluttered Environments [53.41594627336511]
パッシブル障害物認識(Passable Obstacles Aware, POA)プランナーは, 乱雑な環境下での二輪ロボットのナビゲーション手法である。
我々のアルゴリズムは、二輪ロボットが通過可能な障害物を通り抜ける道を見つけることを可能にする。
論文 参考訳(メタデータ) (2023-07-16T19:44:27Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Fast Traversability Estimation for Wild Visual Navigation [17.015268056925745]
トラバーサビリティ推定のためのオンライン自己教師型学習システムであるWild Visual Navigation (WVN)を提案する。
このシステムは、現場での短い人間のデモから継続的に適応することができる。
森林・公園・草地における挑戦的環境における実験・アブレーション研究によるアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-05-15T10:19:30Z) - Deep Neural Network Architecture Search for Accurate Visual Pose
Estimation aboard Nano-UAVs [69.19616451596342]
小型無人航空機(UAV)は、新興かつトレンドのトピックである。
我々は、新しいニューラルネットワーク探索(NAS)技術を活用し、視覚的ポーズ推定タスクのために複数の畳み込みニューラルネットワーク(CNN)を自動的に識別する。
その結果,10Hz@10mWおよび50Hz@90mWの実時間オンボード推算速度を達成しつつ,フィールド内制御誤差を32%低減し,現状を改善できた。
論文 参考訳(メタデータ) (2023-03-03T14:02:09Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Sim-to-Real Transfer for Vision-and-Language Navigation [70.86250473583354]
本研究では,従来は目に見えなかった環境下でロボットを解放し,制約のない自然言語ナビゲーション指示に従うという課題について検討する。
VLN(Vision-and-Language Navigation)の課題に関する最近の研究は、シミュレーションにおいて大きな進歩を遂げている。
ロボット工学における本研究の意義を評価するため,シミュレーションで訓練されたVLNエージェントを物理ロボットに転送する。
論文 参考訳(メタデータ) (2020-11-07T16:49:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。