論文の概要: adder-viz: Real-Time Visualization Software for Transcoding Event Video
- arxiv url: http://arxiv.org/abs/2508.14996v2
- Date: Mon, 25 Aug 2025 19:58:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 13:17:04.032349
- Title: adder-viz: Real-Time Visualization Software for Transcoding Event Video
- Title(参考訳): adder-viz: イベントビデオのリアルタイム可視化ソフトウェア
- Authors: Andrew C. Freeman, Luke Reinkensmeyer,
- Abstract要約: イベントビデオはビデオフレームを省略し、非同期でピクセルごとの強度サンプルを選択できる。
我々はこれらの懸念に対処する統合ADDER表現を以前提案した。
本稿では,実時間イベントトランスコードプロセスとループ内アプリケーションを可視化するアドバンスビズソフトウェアについて,多数の改良を加えている。
- 参考スコア(独自算出の注目度): 0.21485350418225238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have brought about a surge in neuromorphic ``event'' video research, primarily targeting computer vision applications. Event video eschews video frames in favor of asynchronous, per-pixel intensity samples. While much work has focused on a handful of representations for specific event cameras, these representations have shown limitations in flexibility, speed, and compressibility. We previously proposed the unified ADDER representation to address these concerns. This paper introduces numerous improvements to the adder-viz software for visualizing real-time event transcode processes and applications in-the-loop. The MIT-licensed software is available from a centralized repository at https://github.com/ac-freeman/adder-codec-rs.
- Abstract(参考訳): 近年では、主にコンピュータビジョンアプリケーションをターゲットにした、ニューロモルフィックな「イベント」ビデオ研究が急増している。
イベントビデオはビデオフレームを省略し、非同期でピクセルごとの強度サンプルを選択できる。
多くの作業は特定のイベントカメラのいくつかの表現に焦点を当ててきたが、これらの表現は柔軟性、速度、圧縮性に限界を示している。
我々はこれらの懸念に対処する統合ADDER表現を以前提案した。
本稿では,実時間イベントトランスコードプロセスとループ内アプリケーションを可視化するアドバンスビズソフトウェアについて,多数の改良を加えている。
MITライセンスのソフトウェアはhttps://github.com/ac-freeman/adder-codec-rsの中央リポジトリから入手できる。
関連論文リスト
- CoPE-VideoLM: Codec Primitives For Efficient Video Language Models [56.76440182038839]
ビデオ言語モデル(Video Language Models, ビデオ言語モデル)は、ビデオの時間的ダイナミクスを理解するためのAIシステムである。
現在の方法では、マクロレベルのイベントとマイクロレベルの詳細の両方を見逃すことができるサンプリングを使用する。
多くのフレームに対して高価なフルイメージエンコーディングを必要とせず、ビデオ冗長性と疎結合性を符号化するビデオプリミティブを活用することを提案する。
論文 参考訳(メタデータ) (2026-02-13T18:57:31Z) - Scalable Event-Based Video Streaming for Machines with MoQ [0.8158530638728501]
ニューロモルフィックイベントセンサの新しいクラスは、画像フレームではなく非同期のピクセルサンプルでビデオを記録する。
本稿では,Media Over QUICプロトコルのドラフトへの最新の追加に基づいて,新しい低レイテンシイベントストリーミングフォーマットを提案する。
論文 参考訳(メタデータ) (2025-08-20T18:44:10Z) - STORM: Token-Efficient Long Video Understanding for Multimodal LLMs [101.70681093383365]
STORMは、イメージエンコーダとビデオLLMの間に専用のテンポラリエンコーダを組み込んだ、新しいアーキテクチャである。
我々は,STORMが様々な長いビデオ理解ベンチマークにおいて最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2025-03-06T06:17:38Z) - Mind the Time: Temporally-Controlled Multi-Event Video Generation [65.05423863685866]
時間制御を備えたマルチイベントビデオジェネレータMinTを提案する。
私たちの重要な洞察は、各イベントを生成されたビデオの特定の期間にバインドすることで、モデルが一度にひとつのイベントに集中できるようにすることです。
文献の中ではじめて、我々のモデルは生成されたビデオのイベントのタイミングを制御できる。
論文 参考訳(メタデータ) (2024-12-06T18:52:20Z) - Rethinking Video with a Universal Event-Based Representation [0.0]
本稿では,新しい中間映像表現・システムフレームワークDeltaERについて紹介する。
私はADDeltaERが時間的冗長性の高いシーンに対して最先端のアプリケーション速度と圧縮性能を達成することを実証する。
大規模ビデオ監視とリソース制約センシングにおけるイベントベースビデオの影響について論じる。
論文 参考訳(メタデータ) (2024-08-12T16:00:17Z) - Event-aware Video Corpus Moment Retrieval [79.48249428428802]
Video Corpus Moment Retrieval(VCMR)は、未編集ビデオの膨大なコーパス内の特定の瞬間を特定することに焦点を当てた、実用的なビデオ検索タスクである。
VCMRの既存の方法は、典型的にはフレーム対応のビデオ検索に依存し、クエリとビデオフレーム間の類似性を計算して、ビデオをランク付けする。
本研究では,ビデオ検索の基本単位として,ビデオ内のイベントを明示的に活用するモデルであるEventFormerを提案する。
論文 参考訳(メタデータ) (2024-02-21T06:55:20Z) - Video-LaVIT: Unified Video-Language Pre-training with Decoupled Visual-Motional Tokenization [52.63845811751936]
ダイナミックスビデオのモデリングのため、ビデオ事前トレーニングは難しい。
本稿では,ビデオ事前学習におけるこのような制限を,効率的なビデオ分解によって解決する。
筆者らのフレームワークは,13のマルチモーダルベンチマークにおいて,画像と映像のコンテントの理解と生成が可能であることを実証した。
論文 参考訳(メタデータ) (2024-02-05T16:30:49Z) - An Open Software Suite for Event-Based Video [0.8158530638728501]
イベントベースのビデオは、画像フレームを完全に禁ずる新しいパラダイムである。
これまで、研究者は、イベントベースのビデオの表現、圧縮、および応用を探索する、凝集性のあるソフトウェアフレームワークを欠いていた。
私はこのギャップを埋めるためにAD$Delta$ERソフトウェアスイートを提示します。
論文 参考訳(メタデータ) (2024-01-30T16:32:37Z) - Accelerated Event-Based Feature Detection and Compression for
Surveillance Video Systems [1.5390526524075634]
スパース圧縮表現において時間的冗長性を伝達する新しいシステムを提案する。
我々はADDERと呼ばれるビデオ表現フレームワークを利用して、フレーム化されたビデオを疎結合で非同期な強度サンプルに変換する。
我々の研究は、今後のニューロモルフィックセンサーの道を切り拓き、スパイクニューラルネットワークによる将来の応用に有効である。
論文 参考訳(メタデータ) (2023-12-13T15:30:29Z) - VideoINR: Learning Video Implicit Neural Representation for Continuous
Space-Time Super-Resolution [75.79379734567604]
ビデオインプリシットニューラル表現(Video Implicit Neural Representation, VideoINR)は任意の空間解像度とフレームレートの映像にデコード可能であることを示す。
本稿では,最新のSTVSR手法を用いて,一般的なアップサンプリングスケールにおいて,ビデオINRが競合性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-06-09T17:45:49Z) - End-to-End Compressed Video Representation Learning for Generic Event
Boundary Detection [31.31508043234419]
イベント境界検出のためのエンドツーエンド圧縮ビデオ表現学習を提案する。
まず最初にConvNetを使って、GOPのIフレームの特徴を抽出します。
その後、Pフレームの特徴表現を計算するために、軽量な空間チャネル圧縮エンコーダが設計された。
ビデオシーケンスのイベント境界を決定するために,時間的コントラストモジュールを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。