論文の概要: Binary TTC: A Temporal Geofence for Autonomous Navigation
- arxiv url: http://arxiv.org/abs/2101.04777v1
- Date: Tue, 12 Jan 2021 22:05:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:36:32.831322
- Title: Binary TTC: A Temporal Geofence for Autonomous Navigation
- Title(参考訳): Binary TTC: 自律ナビゲーションのための時間ジオフェンス
- Authors: Abhishek Badki, Orazio Gallo, Jan Kautz, Pradeep Sen
- Abstract要約: 接触時間は、シーン内のオブジェクトの深さ、速度、および加速よりも潜在的に有益です。
この課題に対処するために、TTCをより単純でバイナリな分類によって推定する。
私達の方法は6.4 msの一時的なgeofenceを提供します--既存の方法より25倍以上速く。
- 参考スコア(独自算出の注目度): 85.3581740999893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time-to-contact (TTC), the time for an object to collide with the observer's
plane, is a powerful tool for path planning: it is potentially more informative
than the depth, velocity, and acceleration of objects in the scene -- even for
humans. TTC presents several advantages, including requiring only a monocular,
uncalibrated camera. However, regressing TTC for each pixel is not
straightforward, and most existing methods make over-simplifying assumptions
about the scene. We address this challenge by estimating TTC via a series of
simpler, binary classifications. We predict with low latency whether the
observer will collide with an obstacle within a certain time, which is often
more critical than knowing exact, per-pixel TTC. For such scenarios, our method
offers a temporal geofence in 6.4 ms -- over 25x faster than existing methods.
Our approach can also estimate per-pixel TTC with arbitrarily fine quantization
(including continuous values), when the computational budget allows for it. To
the best of our knowledge, our method is the first to offer TTC information
(binary or coarsely quantized) at sufficiently high frame-rates for practical
use.
- Abstract(参考訳): タイム・トゥ・コンタクト(TTC、Time-to-Contact)は、物体が観測者の飛行機と衝突する時であり、経路計画のための強力なツールである。
TTCには、単眼カメラのみを必要とするなど、いくつかの利点がある。
しかし、各画素に対するTTCの回帰は簡単ではなく、既存のほとんどの手法はシーンに関する仮定を単純化する。
この課題に対処するために、TTCを単純なバイナリ分類によって推定する。
我々は、観測者が一定の時間内に障害物と衝突するかどうかを低レイテンシで予測する。
このようなシナリオでは、従来の方法よりも25倍以上高速で6.4ミリ秒の時間的測地を提供する。
提案手法は,計算予算が許す場合,任意に微細な量子化(連続値を含む)で画素当たりのTTCを推定できる。
我々の知識を最大限に活用するために,本手法は初めて,十分高いフレームレートでTCC情報(バイナリまたは粗い量子化)を提供する。
関連論文リスト
- Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - TSTTC: A Large-Scale Dataset for Time-to-Contact Estimation in Driving
Scenarios [39.207748094685286]
TTC(Time-to-Contact)推定は,衝突リスクを評価する上で重要な課題である。
本稿では,モノクロカメラによるTTC推定を促進するために,大規模オブジェクト指向TTCデータセットを駆動シーンに提示する。
論文 参考訳(メタデータ) (2023-09-04T11:39:14Z) - Towards Real-World Visual Tracking with Temporal Contexts [64.7981374129495]
時間的文脈を効率的に活用できる2段階フレームワーク(TCTrack)を提案する。
これに基づいて、現実世界の視覚的トラッキング、すなわちTCTrack++のためのより強力なバージョンを提案する。
特徴抽出のために,空間的特徴を高めるために注意に基づく時間適応的畳み込みを提案する。
類似性マップの改良のために,時間的知識を効率的に符号化する適応型時間的変換器を導入する。
論文 参考訳(メタデータ) (2023-08-20T17:59:40Z) - TROPHY: A Topologically Robust Physics-Informed Tracking Framework for
Tropical Cyclones [4.650202794545353]
本稿では,熱帯サイクロン追跡のためのトポロジカル・ロバストな物理インフォームト・トラッキング・フレームワーク(TROPHY)を提案する。
プリプロセッシングにおいて,短寿命で安定性の低い臨界点の90%をフィルタする物理インフォームド特徴選択法を提案する。
TROPHYをERA5の再解析データから30年間の2次元風洞に適用し,多数のTCトラックを生成する。
論文 参考訳(メタデータ) (2023-07-28T00:44:55Z) - CRT-6D: Fast 6D Object Pose Estimation with Cascaded Refinement
Transformers [51.142988196855484]
本稿では,CRT-6D(Cascaded Refinement Transformers)と呼ぶ新しい手法を提案する。
一般的に使用される高密度中間表現を,Os(Object Keypoint Features)と呼ばれる機能ピラミッドからサンプリングされた,各要素がオブジェクトキーポイントに対応するスパースな機能セットに置き換える。
一つのモデル上で最大21個のオブジェクトをサポートしながら,最も近いリアルタイム状態よりも2倍高速な推論を実現する。
論文 参考訳(メタデータ) (2022-10-21T04:06:52Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - Non-recurrent Traffic Congestion Detection with a Coupled Scalable
Bayesian Robust Tensor Factorization Model [5.141309607968161]
非リカレント交通渋滞(NRTC)は通常、通勤者に予期せぬ遅れをもたらす。
NRTCをリアルタイムに正確に検出し、認識することが重要である。
論文 参考訳(メタデータ) (2020-05-10T03:58:18Z) - GTC: Guided Training of CTC Towards Efficient and Accurate Scene Text
Recognition [27.38969404322089]
本稿では,CTCモデルのより優れたアライメントと特徴表現を,より強力な注意指導から学習するCTCモデルの指導的トレーニングを提案する。
ガイド付きトレーニングの利点により、CTCモデルは、通常のシーンテキストと不規則なシーンテキストの両方に対して、堅牢で正確な予測を達成できる。
CTCデコーダの可能性をさらに活用するために,グラフ畳み込みネットワーク(GCN)を提案し,抽出した特徴の局所的相関を学習した。
論文 参考訳(メタデータ) (2020-02-04T13:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。