論文の概要: CSRAP: Enhanced Canvas Attention Scheduling for Real-Time Mission Critical Perception
- arxiv url: http://arxiv.org/abs/2508.04976v1
- Date: Thu, 07 Aug 2025 02:03:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 21:11:55.650354
- Title: CSRAP: Enhanced Canvas Attention Scheduling for Real-Time Mission Critical Perception
- Title(参考訳): CSRAP: リアルタイムミッションクリティカルパーセプションのためのCanvasアテンションスケジューリングの拡張
- Authors: Md Iftekharul Islam Sakib, Yigong Hu, Tarek Abdelzaher,
- Abstract要約: エッジプラットフォーム上でのリアルタイム認識は、厳格なレイテンシ制約の下で高解像度のオブジェクト検出を実行するという、中核的な課題に直面します。
本論文は, (i) 可変サイズキャンバスフレームと (ii) 選択可能なキャンバスフレームレートを用いて, 従来のキャンバスに基づくアテンションスケジューリング文献を拡張した。
我々の結果は、追加の自由度が達成可能な品質/コストのトレードオフを改善することを示している。
- 参考スコア(独自算出の注目度): 1.367435326571054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time perception on edge platforms faces a core challenge: executing high-resolution object detection under stringent latency constraints on limited computing resources. Canvas-based attention scheduling was proposed in earlier work as a mechanism to reduce the resource demands of perception subsystems. It consolidates areas of interest in an input data frame onto a smaller area, called a canvas frame, that can be processed at the requisite frame rate. This paper extends prior canvas-based attention scheduling literature by (i) allowing for variable-size canvas frames and (ii) employing selectable canvas frame rates that may depart from the original data frame rate. We evaluate our solution by running YOLOv11, as the perception module, on an NVIDIA Jetson Orin Nano to inspect video frames from the Waymo Open Dataset. Our results show that the additional degrees of freedom improve the attainable quality/cost trade-offs, thereby allowing for a consistently higher mean average precision (mAP) and recall with respect to the state of the art.
- Abstract(参考訳): エッジプラットフォーム上でのリアルタイム認識は、中核的な課題に直面している。 限られたコンピューティングリソース上で、厳格なレイテンシ制約の下で、高解像度のオブジェクト検出を実行する。
キャンバスに基づくアテンションスケジューリングは、知覚サブシステムのリソース要求を減らすメカニズムとして、初期の研究で提案された。
入力データフレームの関心領域をキャンバスフレームと呼ばれる小さな領域に集約し、必要なフレームレートで処理することができる。
本稿では,従来のキャンバスに基づく注意スケジューリング文献を拡張した。
i) 可変サイズのキャンバスフレームと
(ii) 元のデータフレームレートから逸脱する可能性のある選択可能なキャンバスフレームレートを採用する。
我々は、NVIDIA Jetson Orin Nano上でYOLOv11を認識モジュールとして実行し、Waymo Open Datasetからビデオフレームを検査することで、ソリューションを評価した。
以上の結果から,付加的な自由度が達成可能な品質/コストトレードオフを改善し,平均平均精度(mAP)を一定に高め,最先端技術に対するリコールを可能にすることが示唆された。
関連論文リスト
- Object-Centric Diffusion for Efficient Video Editing [64.71639719352636]
拡散ベースのビデオ編集は素晴らしい品質に達している。
このようなソリューションは通常、時間的に整合性のあるフレームを生成するために重いメモリと計算コストを発生させる。
品質を維持しつつ、大幅なスピードアップを可能にする修正を提案する。
論文 参考訳(メタデータ) (2024-01-11T08:36:15Z) - Video Dynamics Prior: An Internal Learning Approach for Robust Video
Enhancements [83.5820690348833]
外部トレーニングデータコーパスを必要としない低レベルの視覚タスクのためのフレームワークを提案する。
提案手法は,コヒーレンス・時間的テストの重み付けと統計内部統計を利用して,破損したシーケンスを最適化することでニューラルモジュールを学習する。
論文 参考訳(メタデータ) (2023-12-13T01:57:11Z) - Continuous Space-Time Video Super-Resolution Utilizing Long-Range
Temporal Information [48.20843501171717]
本稿では,任意のフレームレートと空間解像度に変換可能な連続ST-VSR(CSTVSR)手法を提案する。
本稿では,提案アルゴリズムの柔軟性が向上し,各種データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-02-26T08:02:39Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - Temporal Feature Alignment and Mutual Information Maximization for
Video-Based Human Pose Estimation [38.571715193347366]
マルチフレーム人間のポーズ推定のための新しい階層的アライメントフレームワークを提案する。
ベンチマークデータセットのPoseTrack 2017では、マルチフレームPerson Pose Estimation Challengeの1位にランクインし、ベンチマークのSub-JHMDBとPose-Track 2018では最先端のパフォーマンスを得ています。
論文 参考訳(メタデータ) (2022-03-29T04:29:16Z) - Exploring Motion Ambiguity and Alignment for High-Quality Video Frame
Interpolation [46.02120172459727]
本稿では,GTに近い中間フレームを可能な限り再構築する要件を緩和することを提案する。
本研究では,テクスチャ整合性損失 (TCL) を補間されたコンテンツが,与えられたフレーム内でのテクスチャ整合性損失 (TCL) と類似した構造を維持するべきであるという仮定に基づいて開発する。
論文 参考訳(メタデータ) (2022-03-19T10:37:06Z) - Fast Online Video Super-Resolution with Deformable Attention Pyramid [172.16491820970646]
ビデオスーパーレゾリューション(VSR)には、ビデオストリーミングやテレビなど、厳格な因果性、リアルタイム、レイテンシの制約を課す多くのアプリケーションがある。
変形性アテンションピラミッド(DAP)に基づく繰り返しVSRアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-02-03T17:49:04Z) - FOVEA: Foveated Image Magnification for Autonomous Navigation [53.69803081925454]
入力キャンバスを小さく保ちながら、ある領域を弾性的に拡大する注意的アプローチを提案する。
提案手法は,高速R-CNNより高速かつ微調整の少ない検出APを高速化する。
Argoverse-HD と BDD100K の自律走行データセットでは,提案手法が標準の高速 R-CNN を超越した検出APを微調整なしで促進することを示す。
論文 参考訳(メタデータ) (2021-08-27T03:07:55Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。