論文の概要: Dynamic Event-based Optical Identification and Communication
- arxiv url: http://arxiv.org/abs/2303.07169v2
- Date: Tue, 14 Mar 2023 21:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 10:34:44.395149
- Title: Dynamic Event-based Optical Identification and Communication
- Title(参考訳): 動的イベントベース光識別と通信
- Authors: Axel von Arnim, Jules Lecomte, Stanislaw Wozniak, Naima Elosegui
Borras, Angeliki Pantazi
- Abstract要約: 時間的パターン認識は、技術によっては、通信周波数、範囲、正確な追跡の間のトレードオフを伴う。
高速なイベントベースカメラを利用して、このトレードオフを改善する発光ビーコンを用いたソリューションを提案し、スパイクニューロンで計算された疎いニューロモルフィック光の流れを追跡する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical identification is often done with spatial or temporal visual pattern
recognition and localization. Temporal pattern recognition, depending on the
technology, involves a trade-off between communication frequency, range and
accurate tracking. We propose a solution with light-emitting beacons that
improves this trade-off by exploiting fast event-based cameras and, for
tracking, sparse neuromorphic optical flow computed with spiking neurons. In an
asset monitoring use case, we demonstrate that the system, embedded in a
simulated drone, is robust to relative movements and enables simultaneous
communication with, and tracking of, multiple moving beacons. Finally, in a
hardware lab prototype, we achieve state-of-the-art optical camera
communication frequencies in the kHz magnitude.
- Abstract(参考訳): 光学的識別はしばしば、空間的または時間的視覚パターン認識と局在化によって行われる。
時間パターン認識は、技術によっては通信周波数、範囲、正確な追跡のトレードオフを伴う。
高速なイベントベースカメラを利用して、このトレードオフを改善する発光ビーコンを用いたソリューションを提案し、スパイクニューロンで計算された疎いニューロモルフィック光の流れを追跡する。
資産モニタリングのユースケースでは、シミュレートされたドローンに埋め込まれたシステムは相対的な動きに頑健であり、複数の移動ビーコンとの同時通信が可能であることを実証する。
最後に、ハードウェアラボのプロトタイプにおいて、kHz級の最先端の光学カメラ通信周波数を実現する。
関連論文リスト
- Ultrafast single-channel machine vision based on neuro-inspired photonic
computing [0.0]
ニューロインスパイアされたフォトニックコンピューティングは、超低レイテンシでマシンビジョン処理を高速化するための有望なアプローチである。
本稿では,1つの入力チャネルのみで実世界の視覚情報を光学的に処理する,イメージセンサフリーなマシンビジョンフレームワークを提案する。
提案手法は高速画像認識と異常検出が可能であり,さらに高速撮像にも有効であることを示す。
論文 参考訳(メタデータ) (2023-02-15T10:08:04Z) - Optical Flow estimation with Event-based Cameras and Spiking Neural
Networks [0.4899818550820575]
イベントベースセンサーはスパイキングニューラルネットワーク(SNN)に最適である
教師付きトレーニング後,高密度光フロー推定が可能なU-NetライクなSNNを提案する。
分離可能な畳み込みにより、我々は、合理的に正確な光フロー推定が得られる光モデルを開発することができた。
論文 参考訳(メタデータ) (2023-02-13T16:17:54Z) - Correlating sparse sensing for network-wide traffic speed estimation: An
integrated graph tensor-based kriging approach [76.45949280328838]
交通速度は道路網の流動性を特徴づける中心である。
センサと通信技術の急速な進歩は、交通速度の検出をこれまで以上に容易にする。
しかし, 移動体センサの分散配置や低浸透により, 速度は不完全であり, ネットワーク全体には及ばない。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Spatio-Temporal Recurrent Networks for Event-Based Optical Flow
Estimation [47.984368369734995]
本稿では,イベントベース光フロー推定のためのニューラルネットアーキテクチャを提案する。
このネットワークは、Multi-Vehicle Stereo Event Cameraデータセット上で、セルフ教師付き学習でエンドツーエンドにトレーニングされている。
既存の最先端の手法を大きなマージンで上回る結果が得られた。
論文 参考訳(メタデータ) (2021-09-10T13:37:37Z) - Fusion-FlowNet: Energy-Efficient Optical Flow Estimation using Sensor
Fusion and Deep Fused Spiking-Analog Network Architectures [7.565038387344594]
本稿では,フレームベースとイベントベースの両方のセンサを用いたエネルギー効率の高い光フロー推定のためのセンサ融合フレームワークを提案する。
我々のネットワークは、高価なビデオアノテーションを避けるために教師なし学習を用いてエンドツーエンドで訓練されている。
論文 参考訳(メタデータ) (2021-03-19T02:03:33Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Deep Learning-based Beam Tracking for Millimeter-wave Communications
under Mobility [27.62606029014951]
ミリ波(mm波)通信の深層学習に基づくビーム追跡手法を提案する。
深層ニューラルネットワークを用いて,慣性センサによって取得された時間変動チャネルと信号の時間構造とパターンを分析した。
提案手法は, 様々な移動シナリオにおいて, 従来のビーム追従法に比べて有意な性能向上を達成した。
論文 参考訳(メタデータ) (2021-02-19T08:05:11Z) - Real-Time Face & Eye Tracking and Blink Detection using Event Cameras [3.842206880015537]
イベントカメラには、各ピクセルの局所的な光強度の変化を捉え、非同期イベントのストリームを生成する、新しいニューロモルフィックな視覚センサが含まれている。
ドライバー監視システム(英: Driver monitoring system、DMS)は、ドライバーの身体的および認知状態を感知し理解するために設計されたキャビン内の安全システムである。
本稿では,運転者監視のための顔と視線を同時に検出・追跡する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-16T10:02:41Z) - PAN: Towards Fast Action Recognition via Learning Persistence of
Appearance [60.75488333935592]
最先端のほとんどの手法は、動きの表現として密度の高い光の流れに大きく依存している。
本稿では,光学的フローに依存することで,高速な動作認識に光を当てる。
我々はPersistence of Outearance(PA)と呼ばれる新しい動きキューを設計する。
光学的流れとは対照的に,我々のPAは境界における運動情報の蒸留に重点を置いている。
論文 参考訳(メタデータ) (2020-08-08T07:09:54Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。