論文の概要: A Self-Supervised Miniature One-Shot Texture Segmentation (MOSTS) Model
for Real-Time Robot Navigation and Embedded Applications
- arxiv url: http://arxiv.org/abs/2306.08814v1
- Date: Thu, 15 Jun 2023 02:12:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 16:52:42.618340
- Title: A Self-Supervised Miniature One-Shot Texture Segmentation (MOSTS) Model
for Real-Time Robot Navigation and Embedded Applications
- Title(参考訳): リアルタイムロボットナビゲーションと組込み用セルフ・スーパービジョン小型ワンショットテクスチャ・セグメンテーション(MOSTS)モデル
- Authors: Yu Chen, Chirag Rastogi, Zheyu Zhou, and William R. Norris
- Abstract要約: 本稿では, 自己教師型ワンショットテクスチャセグメンテーションフレームワークとRGB-Dカメラを用いて, 堅牢なドライビング可能な領域セグメンテーションを実現する方法について検討する。
MOSTSの性能を既存の1ショットテクスチャセグメンテーションモデルと比較するためのベンチマーク研究を行った。
その結果,MOSTSは室内乾燥領域のセグメンテーションにおいて最大8倍高速な推論速度で比較精度が得られた。
- 参考スコア(独自算出の注目度): 3.6893980971104248
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Determining the drivable area, or free space segmentation, is critical for
mobile robots to navigate indoor environments safely. However, the lack of
coherent markings and structures (e.g., lanes, curbs, etc.) in indoor spaces
places the burden of traversability estimation heavily on the mobile robot.
This paper explores the use of a self-supervised one-shot texture segmentation
framework and an RGB-D camera to achieve robust drivable area segmentation.
With a fast inference speed and compact size, the developed model, MOSTS is
ideal for real-time robot navigation and various embedded applications. A
benchmark study was conducted to compare MOSTS's performance with existing
one-shot texture segmentation models to evaluate its performance. Additionally,
a validation dataset was built to assess MOSTS's ability to perform texture
segmentation in the wild, where it effectively identified small low-lying
objects that were previously undetectable by depth measurements. Further, the
study also compared MOSTS's performance with two State-Of-The-Art (SOTA) indoor
semantic segmentation models, both quantitatively and qualitatively. The
results showed that MOSTS offers comparable accuracy with up to eight times
faster inference speed in indoor drivable area segmentation.
- Abstract(参考訳): 自由空間セグメンテーション(free space segmentation、自由空間セグメンテーション)は、移動ロボットが屋内環境を安全に移動するためには重要である。
しかし、屋内空間におけるコヒーレントなマーキングや構造(車線、縁石など)の欠如は、移動ロボットに対するトラバーサビリティ推定の負担が大きい。
本稿では,自己教師付きワンショットテクスチャセグメンテーションフレームワークとrgb-dカメラを用いて,ロバストなドリブル領域セグメンテーションを実現する。
高速な推論速度とコンパクトなサイズを持つMOSTSは、リアルタイムロボットナビゲーションや様々な組込みアプリケーションに最適である。
mostsのパフォーマンスを既存のone-shotテクスチャセグメンテーションモデルと比較し、パフォーマンスを評価するためのベンチマーク研究を行った。
さらに、s mostsが野生でテクスチャセグメンテーションを行う能力を評価するために検証データセットが作られ、これまで深度測定では検出できなかった小さな低レベルオブジェクトを効果的に識別した。
さらに,MOSTSの性能を2つの内的意味的セグメンテーションモデルであるState-Of-The-Art(SOTA)と比較した。
その結果,MOSTSは室内乾燥領域のセグメンテーションにおいて最大8倍高速な推論速度の精度が得られた。
関連論文リスト
- RISeg: Robot Interactive Object Segmentation via Body Frame-Invariant
Features [6.358423536732677]
本稿では,ロボットインタラクションとデザインされたボディーフレーム不変機能を用いて,不正確なセグメンテーションを補正する新しい手法を提案する。
オブジェクト分割精度を平均80.7%とすることで、散らばったシーンを正確にセグメント化するための対話型知覚パイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-04T05:03:24Z) - Reliability in Semantic Segmentation: Can We Use Synthetic Data? [69.28268603137546]
セマンティックセグメンテーションモデルの現実的信頼性を総合的に評価するために、合成データを具体的に生成する方法を初めて示す。
この合成データは、事前訓練されたセグメンタの堅牢性を評価するために使用される。
セグメンタのキャリブレーションとOOD検出能力を向上するために,我々のアプローチをどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2023-12-14T18:56:07Z) - Trajeglish: Traffic Modeling as Next-Token Prediction [67.28197954427638]
自動運転開発における長年の課題は、記録された運転ログからシードされた動的運転シナリオをシミュレートすることだ。
車両、歩行者、サイクリストが運転シナリオでどのように相互作用するかをモデル化するために、離散シーケンスモデリングのツールを適用します。
我々のモデルはSim Agents Benchmarkを上回り、リアリズムメタメトリックの先行作業の3.3%、インタラクションメトリックの9.9%を上回ります。
論文 参考訳(メタデータ) (2023-12-07T18:53:27Z) - Benchmarking the Robustness of LiDAR Semantic Segmentation Models [78.6597530416523]
本稿では,LiDARセマンティックセグメンテーションモデルのロバスト性を,様々な汚職の下で包括的に解析することを目的とする。
本稿では,悪天候,計測ノイズ,デバイス間不一致という3つのグループで16のドメイン外LiDAR破損を特徴とするSemanticKITTI-Cというベンチマークを提案する。
我々は、単純だが効果的な修正によってロバスト性を大幅に向上させるロバストLiDARセグメンテーションモデル(RLSeg)を設計する。
論文 参考訳(メタデータ) (2023-01-03T06:47:31Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - Unseen Object Instance Segmentation with Fully Test-time RGB-D
Embeddings Adaptation [14.258456366985444]
最近では、大規模な合成データのRGB-D機能を活用し、実世界のシナリオにモデルを適用するのが一般的である。
本稿では,Sim2Realドメイン間の適応プロセスを再強調する。
本稿では,BatchNorm層のパラメータに基づいて,完全テスト時間RGB-D埋め込み適応(FTEA)を行うフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-21T02:35:20Z) - Reimagine BiSeNet for Real-Time Domain Adaptation in Semantic
Segmentation [17.761939190746812]
ドメイン間のリアルタイムセマンティックセグメンテーションの課題について考察する。
我々は、合成領域で訓練されたとしても、実世界のデータに対して適切に行動するようにモデルを訓練する。
私たちは、この目的のために特別に作られた新しい軽量で浅い識別器を採用しています。
論文 参考訳(メタデータ) (2021-10-22T08:39:28Z) - Semantic Scene Segmentation for Robotics Applications [51.66271681532262]
様々な設定の下で,最も成功したセマンティックシーンセグメンテーションモデルの動作を,展開(推論)速度の観点から検討する。
この研究の目的は、ロボット工学の応用要件に最も適合しているものを選択するために、現在の最先端セグメンテーションモデルの比較研究を提供することである。
論文 参考訳(メタデータ) (2021-08-25T08:55:20Z) - Dynamic Fusion Module Evolves Drivable Area and Road Anomaly Detection:
A Benchmark and Algorithms [16.417299198546168]
移動ロボットにとって,乾燥領域と道路異常の同時検出は非常に重要である。
本稿では,まず,地上移動ロボットの乾性領域と道路異常検出ベンチマークを構築した。
本稿では,既存のデータ・フュージョン・ネットワークに容易にデプロイ可能なdynamic fusion module (dfm) と呼ばれる新しいモジュールを提案する。
論文 参考訳(メタデータ) (2021-03-03T14:38:27Z) - Efficient RGB-D Semantic Segmentation for Indoor Scene Analysis [16.5390740005143]
NVIDIARTを用いて高次に最適化可能な,効率的かつ堅牢なRGB-Dセグメンテーション手法を提案する。
RGB-Dセグメンテーションは、RGB画像のみを処理するよりも優れており、ネットワークアーキテクチャが慎重に設計されている場合、リアルタイムに実行可能であることを示す。
論文 参考訳(メタデータ) (2020-11-13T15:17:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。