論文の概要: \textit{adder-viz}: Real-Time Visualization Software for Transcoding Event Video
- arxiv url: http://arxiv.org/abs/2508.14996v1
- Date: Wed, 20 Aug 2025 18:33:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.065746
- Title: \textit{adder-viz}: Real-Time Visualization Software for Transcoding Event Video
- Title(参考訳): イベントビデオのリアルタイム可視化ソフトウェア \textit{adder-viz}
- Authors: Andrew C. Freeman, Luke Reinkensmeyer,
- Abstract要約: 本稿では,リアルタイムのイベントトランスコードプロセスとループ内アプリケーションを可視化するテキストタダ-ビズソフトウェアについて,多数の改良を加えている。
- 参考スコア(独自算出の注目度): 0.6906005491572401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have brought about a surge in neuromorphic ``event'' video research, primarily targeting computer vision applications. Event video eschews video frames in favor of asynchronous, per-pixel intensity samples. While much work has focused on a handful of representations for specific event cameras, these representations have shown limitations in flexibility, speed, and compressibility. We previously proposed the unified AD{\Delta}ER representation to address these concerns. This paper introduces numerous improvements to the \textit{adder-viz} software for visualizing real-time event transcode processes and applications in-the-loop. The MIT-licensed software is available from a centralized repository at \href{https://github.com/ac-freeman/adder-codec-rs}{https://github.com/ac-freeman/adder-codec-rs}.
- Abstract(参考訳): 近年では、主にコンピュータビジョンアプリケーションをターゲットにした、ニューロモルフィックな「イベント」ビデオ研究が急増している。
イベントビデオはビデオフレームを省略し、非同期でピクセルごとの強度サンプルを選択できる。
多くの作業は特定のイベントカメラのいくつかの表現に焦点を当ててきたが、これらの表現は柔軟性、速度、圧縮性に限界を示している。
これらの懸念に対処するため、我々は以前AD{\Delta}ERの統一表現を提案した。
本稿では,リアルタイムのイベントトランスコードプロセスとループ内アプリケーションを可視化する,textit{adder-viz} ソフトウェアに多くの改良を加えている。
MITライセンスのソフトウェアは、href{https://github.com/ac-freeman/adder-codec-rs}{https://github.com/ac-freeman/adder-codec-rs} の中央リポジトリから入手できる。
関連論文リスト
- Scalable Event-Based Video Streaming for Machines with MoQ [0.8158530638728501]
ニューロモルフィックイベントセンサの新しいクラスは、画像フレームではなく非同期のピクセルサンプルでビデオを記録する。
本稿では,Media Over QUICプロトコルのドラフトへの最新の追加に基づいて,新しい低レイテンシイベントストリーミングフォーマットを提案する。
論文 参考訳(メタデータ) (2025-08-20T18:44:10Z) - STORM: Token-Efficient Long Video Understanding for Multimodal LLMs [101.70681093383365]
STORMは、イメージエンコーダとビデオLLMの間に専用のテンポラリエンコーダを組み込んだ、新しいアーキテクチャである。
我々は,STORMが様々な長いビデオ理解ベンチマークにおいて最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2025-03-06T06:17:38Z) - Rethinking Video with a Universal Event-Based Representation [0.0]
本稿では,新しい中間映像表現・システムフレームワークDeltaERについて紹介する。
私はADDeltaERが時間的冗長性の高いシーンに対して最先端のアプリケーション速度と圧縮性能を達成することを実証する。
大規模ビデオ監視とリソース制約センシングにおけるイベントベースビデオの影響について論じる。
論文 参考訳(メタデータ) (2024-08-12T16:00:17Z) - Video-LaVIT: Unified Video-Language Pre-training with Decoupled Visual-Motional Tokenization [52.63845811751936]
ダイナミックスビデオのモデリングのため、ビデオ事前トレーニングは難しい。
本稿では,ビデオ事前学習におけるこのような制限を,効率的なビデオ分解によって解決する。
筆者らのフレームワークは,13のマルチモーダルベンチマークにおいて,画像と映像のコンテントの理解と生成が可能であることを実証した。
論文 参考訳(メタデータ) (2024-02-05T16:30:49Z) - An Open Software Suite for Event-Based Video [0.8158530638728501]
イベントベースのビデオは、画像フレームを完全に禁ずる新しいパラダイムである。
これまで、研究者は、イベントベースのビデオの表現、圧縮、および応用を探索する、凝集性のあるソフトウェアフレームワークを欠いていた。
私はこのギャップを埋めるためにAD$Delta$ERソフトウェアスイートを提示します。
論文 参考訳(メタデータ) (2024-01-30T16:32:37Z) - Accelerated Event-Based Feature Detection and Compression for
Surveillance Video Systems [1.5390526524075634]
スパース圧縮表現において時間的冗長性を伝達する新しいシステムを提案する。
我々はADDERと呼ばれるビデオ表現フレームワークを利用して、フレーム化されたビデオを疎結合で非同期な強度サンプルに変換する。
我々の研究は、今後のニューロモルフィックセンサーの道を切り拓き、スパイクニューラルネットワークによる将来の応用に有効である。
論文 参考訳(メタデータ) (2023-12-13T15:30:29Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。