論文の概要: KIT MOMA: A Mobile Machines Dataset
- arxiv url: http://arxiv.org/abs/2007.04198v1
- Date: Wed, 8 Jul 2020 15:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 13:24:56.119415
- Title: KIT MOMA: A Mobile Machines Dataset
- Title(参考訳): KIT MOMA: モバイルデバイスのデータセット
- Authors: Yusheng Xiang, Hongzhe Wang, Tianqing Su, Ruoyu Li, Christine Brach,
Samuel S. Mao, Marcus Geimer
- Abstract要約: KIT MOMAデータセットを公開し、一般的なモバイルマシンの8つのクラスを含む。
データセットは、モバイル建設機械を検出するためのSOTAアルゴリズムを評価するベンチマークとして使用することができる。
KIT MOMAのイメージのほとんどは実際のシーンにあるが、一部の画像は建設機械メーカーの公式ウェブサイトにある。
- 参考スコア(独自算出の注目度): 1.9118673657769618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile machines typically working in a closed site, have a high potential to
utilize autonomous driving technology. However, vigorously thriving development
and innovation are happening mostly in the area of passenger cars. In contrast,
although there are also many research pieces about autonomous driving or
working in mobile machines, a consensus about the SOTA solution is still not
achieved. We believe that the most urgent problem that should be solved is the
absence of a public and challenging visual dataset, which makes the results
from different researches comparable. To address the problem, we publish the
KIT MOMA dataset, including eight classes of commonly used mobile machines,
which can be used as a benchmark to evaluate the SOTA algorithms to detect
mobile construction machines. The view of the gathered images is outside of the
mobile machines since we believe fixed cameras on the ground are more suitable
if all the interesting machines are working in a closed site. Most of the
images in KIT MOMA are in a real scene, whereas some of the images are from the
official website of top construction machine companies. Also, we have evaluated
the performance of YOLO v3 on our dataset, indicating that the SOTA computer
vision algorithms already show an excellent performance for detecting the
mobile machines in a specific working site. Together with the dataset, we also
upload the trained weights, which can be directly used by engineers from the
construction machine industry. The dataset, trained weights, and updates can be
found on our Github. Moreover, the demo can be found on our Youtube.
- Abstract(参考訳): 通常、クローズドな場所で作業するモバイルマシンは、自動運転技術を利用する可能性が高い。
しかし、開発と革新の活発な発展は、主に旅客車の分野で起きている。
対照的に、自動運転やモバイルマシンでの作業についても多くの研究があるが、SOTAソリューションに関するコンセンサスはまだ達成されていない。
解決すべき最も緊急な問題は、公然と挑戦的なビジュアルデータセットがないことであり、異なる研究の結果と同等である、と私たちは信じています。
この問題に対処するため、我々は8種類のモバイルマシンを含むKIT MOMAデータセットを公開し、モバイル構築マシンを検出するためのSOTAアルゴリズムを評価するベンチマークとして使用することができる。
収集された画像のビューは、すべての興味深いマシンがクローズドな場所で作業している場合、地上の固定カメラがより適していると考えるので、モバイルマシンの外部にある。
KIT MOMAのイメージのほとんどは実際のシーンにあるが、一部の画像は建設機械メーカーの公式ウェブサイトにある。
また、このデータセット上でのYOLO v3の性能を評価し、SOTAコンピュータビジョンアルゴリズムは、特定の作業場での移動体検出に優れた性能を示していることを示す。
データセットとともにトレーニングされた重量もアップロードします。これは建設機械業界のエンジニアが直接使用することができます。
データセット、トレーニングされたウェイト、アップデートはGithubで確認できます。
さらに、デモは私たちのyoutubeで見ることができる。
関連論文リスト
- EMMA: End-to-End Multimodal Model for Autonomous Driving [56.972452552944056]
本稿では,自動走行のためのエンドツーエンドマルチモーダルモデルEMMAを紹介する。
EMMAはマルチモーダルな大規模言語モデル基盤に基づいて構築され、生のカメラセンサーデータを様々な駆動特有の出力に直接マッピングする。
論文 参考訳(メタデータ) (2024-10-30T17:46:31Z) - USTC FLICAR: A Sensors Fusion Dataset of LiDAR-Inertial-Camera for
Heavy-duty Autonomous Aerial Work Robots [13.089952067224138]
本稿では,同時ローカライゼーションとマッピングの開発を目的としたUSTC FLICARデータセットを提案する。
提案したデータセットは、典型的な自律走行センシングスイートを空中シーンに拡張する。
Segment Anything Model (SAM)に基づいて,セマンティックFLICARデータセットを生成し,セマンティックセマンティックなセマンティックセマンティックアノテーションを提供する。
論文 参考訳(メタデータ) (2023-04-04T17:45:06Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Error-Aware Imitation Learning from Teleoperation Data for Mobile
Manipulation [54.31414116478024]
移動操作(MM)では、ロボットは環境内を移動して操作することができる。
本研究では,MMタスクに対する連続的なビジュオモダポリシの学習に模倣学習(IL)を適用する方法について検討する。
論文 参考訳(メタデータ) (2021-12-09T23:54:59Z) - KITTI-360: A Novel Dataset and Benchmarks for Urban Scene Understanding
in 2D and 3D [67.50776195828242]
KITTI-360は、よりリッチな入力モダリティ、包括的なセマンティックインスタンスアノテーション、正確なローカライゼーションを含む郊外の運転データセットである。
その結果,150k以上のセマンティクスとインスタンスのアノテート画像と1Bのアノテート3Dポイントが得られた。
我々は、同じデータセット上のコンピュータビジョン、グラフィックス、ロボット工学の問題を含む、モバイル知覚に関連するいくつかのタスクのベンチマークとベースラインを構築した。
論文 参考訳(メタデータ) (2021-09-28T00:41:29Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Dynamic Fusion Module Evolves Drivable Area and Road Anomaly Detection:
A Benchmark and Algorithms [16.417299198546168]
移動ロボットにとって,乾燥領域と道路異常の同時検出は非常に重要である。
本稿では,まず,地上移動ロボットの乾性領域と道路異常検出ベンチマークを構築した。
本稿では,既存のデータ・フュージョン・ネットワークに容易にデプロイ可能なdynamic fusion module (dfm) と呼ばれる新しいモジュールを提案する。
論文 参考訳(メタデータ) (2021-03-03T14:38:27Z) - Commands 4 Autonomous Vehicles (C4AV) Workshop Summary [91.92872482200018]
本稿では,最近のEmphTalk2Carデータセットに基づいて,EmphCommands for autonomous Vehicles (C4AV)チャレンジの結果について述べる。
我々は、トップパフォーマンスモデルを成功させる側面を特定し、それらを視覚的なグラウンド化のために既存の最先端モデルと関連付ける。
論文 参考訳(メタデータ) (2020-09-18T12:33:21Z) - Automated analysis of eye-tracker-based human-human interaction studies [2.433293618209319]
本稿では,移動眼球追跡データの自動解析に最先端のコンピュータビジョンアルゴリズムが用いられているかを検討する。
本稿では,人間の対面インタラクションにおける移動眼球追跡記録に焦点をあてる。
この単一パイプラインフレームワークを使用することで、現場での作業よりも正確かつ高速な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-09T10:00:03Z) - Comparison and Benchmarking of AI Models and Frameworks on Mobile
Devices [2.881382412683538]
AIoTBenchは、モバイルおよび組み込みデバイスの推論能力の評価に焦点を当てたベンチマークスイートである。
AIoTBenchは、ResNet50、InceptionV3、DenseNet121、およびSqueezeNet、MobileNetV2、MnasNetの3つの軽量ネットワークをカバーしている。
デバイスのAI能力を比較するために、VIPS(Valid Images Per Second)とVOPS(Valid FLOPs Per Second)の2つの統合メトリクスを提案する。
論文 参考訳(メタデータ) (2020-05-07T15:05:23Z) - Holopix50k: A Large-Scale In-the-wild Stereo Image Dataset [0.04215938932388721]
本稿では,Holopixモバイルソーシャルプラットフォームの利用者が提供した49,368枚の画像ペアからなる,新たなウィジェット内ステレオ画像データセットを提案する。
我々は,ステレオ超解像や自己教師型単眼深度推定などのタスクにおいて,データセットを用いることで結果が大幅に改善されることを実験的に示した。
論文 参考訳(メタデータ) (2020-03-25T01:13:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。