論文の概要: AI-Assisted Adaptive Rendering for High-Frequency Security Telemetry in Web Interfaces
- arxiv url: http://arxiv.org/abs/2602.01671v1
- Date: Mon, 02 Feb 2026 05:40:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.928691
- Title: AI-Assisted Adaptive Rendering for High-Frequency Security Telemetry in Web Interfaces
- Title(参考訳): ウェブインタフェースにおける高周波セキュリティテレメトリのためのAI支援適応レンダリング
- Authors: Mona Rajhans,
- Abstract要約: 現代のサイバーセキュリティプラットフォームは、ネットワークログ、エンドポイントイベント、アラート、ポリシー変更などの高周波テレメトリをリアルタイムで処理し、表示する必要がある。
静的または固定的なポーリング間隔に基づく従来のレンダリング技術は、毎秒数十万イベントを超えるボリューム条件下で失敗する。
本稿では、視覚的更新頻度を動的に制御し、意味的に関連するイベントを優先順位付けし、低優先度データを選択的に集約するAI支援適応レンダリングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern cybersecurity platforms must process and display high-frequency telemetry such as network logs, endpoint events, alerts, and policy changes in real time. Traditional rendering techniques based on static pagination or fixed polling intervals fail under volume conditions exceeding hundreds of thousands of events per second, leading to UI freezes, dropped frames, or stale data. This paper presents an AI-assisted adaptive rendering framework that dynamically regulates visual update frequency, prioritizes semantically relevant events, and selectively aggregates lower-priority data using behavior-driven heuristics and lightweight on-device machine learning models. Experimental validation demonstrates a 45-60 percent reduction in rendering overhead while maintaining analyst perception of real-time responsiveness.
- Abstract(参考訳): 現代のサイバーセキュリティプラットフォームは、ネットワークログ、エンドポイントイベント、アラート、ポリシー変更などの高周波テレメトリをリアルタイムで処理し、表示する必要がある。
静的ページネーションや固定ポーリング間隔に基づく従来のレンダリング技術は、毎秒数十万イベントを超えるボリューム条件下で失敗し、UIフリーズ、ドロップフレーム、あるいは古いデータに繋がる。
本稿では、視覚的更新頻度を動的に制御し、意味的に関連するイベントを優先順位付けし、行動駆動ヒューリスティックスと軽量オンデバイス機械学習モデルを用いて低優先度データを選択的に集約するAI支援適応レンダリングフレームワークを提案する。
実験による検証では、リアルタイムの応答性に対するアナリストの認識を維持しながら、レンダリングオーバーヘッドを45~60%削減している。
関連論文リスト
- Event-Based Visual Teach-and-Repeat via Fast Fourier-Domain Cross-Correlation [52.46888249268445]
本稿では,最初のイベントカメラを用いた視覚指導・再生システムを提案する。
本研究では,イベントストリームマッチング問題を計算効率の良い空間乗算に変換する周波数領域相互相関フレームワークを開発した。
Prophesee EVK4 HDイベントカメラをAgileX Scout Miniロボットに搭載した実験では、自律走行が成功している。
論文 参考訳(メタデータ) (2025-09-21T23:53:31Z) - Spatiotemporal Attention Learning Framework for Event-Driven Object Recognition [1.0445957451908694]
イベントベースの視覚センサは、位置、極性、情報を含むスパースイベントストリームとして、局所ピクセルレベルの強度変化をキャプチャする。
本稿では、CBAM(Contemporalal Block Attention Module)により強化されたVARGGネットワークを利用した、イベントベースのオブジェクト認識のための新しい学習フレームワークを提案する。
提案手法は,従来のVGGモデルと比較してパラメータ数を2.3%削減しつつ,最先端のResNet手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2025-04-01T02:37:54Z) - FlexEvent: Towards Flexible Event-Frame Object Detection at Varying Operational Frequencies [59.10607296658509]
イベントカメラは、動的環境におけるリアルタイムの知覚に相容れないアドバンテージを提供する。
イベント検出器は固定周波数のパラダイムによって制限されており、イベントデータの高時間分解能と適応性を完全に活用できない。
我々は、様々な周波数で検出できる新しいフレームワークFlexEventを提案する。
論文 参考訳(メタデータ) (2024-12-09T17:57:14Z) - Optimal OnTheFly Feedback Control of Event Sensors [0.14999444543328289]
イベントベースの視覚センサは、ピクセル強度の変動が閾値を超えるとトリガされるイベントの非同期ストリームを生成する。
本稿では,過去のイベントをコントローラネットワークが解析する,アクティベーションしきい値の動的フィードバック制御手法を提案する。
本手法は,LPIPSの知覚的画像差度測定値において,固定的およびランダムに変化する閾値スキームを6~12%向上させることを示した。
論文 参考訳(メタデータ) (2024-08-23T10:49:16Z) - Autoregressive Queries for Adaptive Tracking with Spatio-TemporalTransformers [55.46413719810273]
リッチ時間情報は、視覚追跡における複雑なターゲットの出現に不可欠である。
提案手法は,6つの一般的な追跡ベンチマークにおいてトラッカーの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-15T02:39:26Z) - Self-Supervised Scene Dynamic Recovery from Rolling Shutter Images and
Events [63.984927609545856]
任意の時間間隔間での画素単位のダイナミックさを予測するために,イベントベース/イントラフレーム補償器(E-IC)を提案する。
提案手法は,実世界のシナリオにおけるイベントベースRS2GSインバージョンにおいて,顕著な性能を示す。
論文 参考訳(メタデータ) (2023-04-14T05:30:02Z) - Single-Layer Vision Transformers for More Accurate Early Exits with Less
Overhead [88.17413955380262]
視覚変換器アーキテクチャに基づく早期退避のための新しいアーキテクチャを提案する。
本手法は分類問題と回帰問題の両方に有効であることを示す。
また,音声視覚データ解析において,早期出口に音声と視覚のモダリティを統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-19T13:30:34Z) - AET-EFN: A Versatile Design for Static and Dynamic Event-Based Vision [33.4444564715323]
イベントデータは、非常に高時間分解能の空間時間領域におけるノイズ、スパース、および不均一である。
既存の方法では、イベントをポイントクラウドベースまたはボクセルベースの表現にエンコードするが、ノイズや情報損失に悩まされる。
この研究は、新しいイベントデータ表現としてAligned Event Frame(AET)とEvent Frame Net(EFN)と呼ばれるきちんとしたフレームワークを提案する。
提案されたAETとEFNは様々なデータセットで評価され、既存の最先端のメソッドを大きなマージンで上回ることが証明された。
論文 参考訳(メタデータ) (2021-03-22T08:09:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。