論文の概要: Machine Learning Computer Vision Applications for Spatial AI Object
Recognition in Orange County, California
- arxiv url: http://arxiv.org/abs/2303.07560v1
- Date: Tue, 14 Mar 2023 00:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 16:54:59.134506
- Title: Machine Learning Computer Vision Applications for Spatial AI Object
Recognition in Orange County, California
- Title(参考訳): カリフォルニア州オレンジ郡における空間AI物体認識のための機械学習コンピュータビジョン応用
- Authors: Kostas Alexandridis
- Abstract要約: カリフォルニア州オレンジ郡において,AI機械学習とコンピュータビジョンアルゴリズムを用いた空間オブジェクト認識と位置検出を統合的かつ体系的に自動化する手法を提案する。
本稿では,多センサ・高分解能フィールドデータ取得のための包括的方法論と,ポストフィールド処理およびプレアナライザ処理タスクについて述べる。
オレンジ郡の2つの領域にまたがる光球画像における800万以上の濃度方向のアプリケーション処理の例を示し、停止信号および消火栓物体認識のための検出結果を示す。
- 参考スコア(独自算出の注目度): 4.089055556130725
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We provide an integrated and systematic automation approach to spatial object
recognition and positional detection using AI machine learning and computer
vision algorithms for Orange County, California. We describe a comprehensive
methodology for multi-sensor, high-resolution field data acquisition, along
with post-field processing and pre-analysis processing tasks. We developed a
series of algorithmic formulations and workflows that integrate convolutional
deep neural network learning with detected object positioning estimation in
360{\deg} equirectancular photosphere imagery. We provide examples of
application processing more than 800 thousand cardinal directions in
photosphere images across two areas in Orange County, and present detection
results for stop-sign and fire hydrant object recognition. We discuss the
efficiency and effectiveness of our approach, along with broader inferences
related to the performance and implications of this approach for future
technological innovations, including automation of spatial data and public
asset inventories, and near real-time AI field data systems.
- Abstract(参考訳): カリフォルニア州オレンジ郡において,AI機械学習とコンピュータビジョンアルゴリズムを用いた空間オブジェクト認識と位置検出を統合的かつ体系的に自動化する手法を提案する。
本稿では,マルチセンサ・高分解能フィールドデータ取得のための包括的手法と,ポストフィールド処理と事前解析処理タスクについて述べる。
360{\deg}等高次光球画像における畳み込み型深層ニューラルネットワーク学習と検出対象位置推定を組み合わせたアルゴリズム定式化とワークフローを開発した。
オレンジ郡の2つの領域にまたがる光球画像における800万以上の濃度方向のアプリケーション処理の例を示し、停止信号および消火栓物体認識のための検出結果を示す。
我々は、空間データと公共資産の在庫の自動化、およびほぼリアルタイムなAIフィールドデータシステムを含む将来の技術革新におけるこのアプローチの性能と影響に関する広範な推論とともに、このアプローチの効率性と有効性について論じる。
関連論文リスト
- Joint object detection and re-identification for 3D obstacle
multi-camera systems [47.87501281561605]
本研究は,カメラとライダー情報を用いた物体検出ネットワークに新たな改良を加えたものである。
同じ車両内の隣のカメラにまたがって物体を再識別する作業のために、追加のブランチが組み込まれている。
その結果,従来の非最大抑圧(NMS)技術よりも,この手法が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-09T15:16:35Z) - Deep Learning Approaches in Pavement Distress Identification: A Review [0.39373541926236766]
本稿では,舗装災害検出・分類のための画像処理技術と深層学習技術の最近の進歩を概観する。
これらのアルゴリズムがパターンを識別し、広範囲なデータセットに基づいて予測する能力は、舗装災害識別の領域に革命をもたらした。
高解像度画像をキャプチャすることで、UAVは深層学習アルゴリズムを用いて処理できる貴重なデータを提供し、様々な舗装の苦痛を効果的に検出し分類する。
論文 参考訳(メタデータ) (2023-08-01T20:30:11Z) - DeepSTEP -- Deep Learning-Based Spatio-Temporal End-To-End Perception
for Autonomous Vehicles [0.0]
我々はDeepSTEPというエンド・ツー・エンドの知覚アーキテクチャの概念を提示する。
DeepSTEPは、カメラ、LiDAR、RaDARからの生のセンサーデータを処理し、抽出したデータを深層融合ネットワークに結合する。
アーキテクチャのエンド・ツー・エンドの設計、タイムアウェア・アテンション・メカニズム、および複数の知覚タスクの統合により、現実世界のデプロイメントにおいて有望なソリューションとなる。
論文 参考訳(メタデータ) (2023-05-11T14:13:37Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Identity-Aware Attribute Recognition via Real-Time Distributed Inference
in Mobile Edge Clouds [53.07042574352251]
我々は、MEC対応カメラ監視システムにおいて、re-IDを用いた歩行者属性認識のための新しいモデルの設計を行う。
本稿では,属性認識と人物再IDを協調的に考慮し,分散モジュールの集合を持つ新しい推論フレームワークを提案する。
そこで我々は,提案した分散推論フレームワークのモジュール分布の学習に基づくアルゴリズムを考案した。
論文 参考訳(メタデータ) (2020-08-12T12:03:27Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Building Robust Industrial Applicable Object Detection Models Using
Transfer Learning and Single Pass Deep Learning Architectures [1.1816942730023883]
我々は、オブジェクト検出のタスク専用の深層畳み込みニューラルネットワークが、産業指向のオブジェクト検出パイプラインをどのように改善するかを探求する。
地域提案や分類,確率推定をひとつの実行で統合したディープラーニングアーキテクチャを用いて,リアルタイムのパフォーマンス向上を目指す。
本稿では,これらのアルゴリズムを2つの産業関連アプリケーションに適用し,その1つはアイトラッキングデータにおけるプロモーションボードの検出と,もう1つは拡張現実広告のための倉庫製品のパッケージの検出と認識である。
論文 参考訳(メタデータ) (2020-07-09T09:50:45Z) - Real-Time Object Detection and Recognition on Low-Compute Humanoid
Robots using Deep Learning [0.12599533416395764]
本稿では、複数の低計算NAOロボットがカメラビューにおける物体のリアルタイム検出、認識、位置決めを行うことを可能にする新しいアーキテクチャについて述べる。
オブジェクト検出と局所化のためのアルゴリズムは,複数のシナリオにおける屋内実験に基づくYOLOv3の実証的な修正である。
このアーキテクチャは、カメラフィードからニューラルネットにリアルタイムフレームを供給し、その結果を使ってロボットを誘導する効果的なエンドツーエンドパイプラインも備えている。
論文 参考訳(メタデータ) (2020-01-20T05:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。