論文の概要: EVER: Edge-Assisted Auto-Verification for Mobile MR-Aided Operation
- arxiv url: http://arxiv.org/abs/2510.18224v1
- Date: Tue, 21 Oct 2025 02:12:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.819439
- Title: EVER: Edge-Assisted Auto-Verification for Mobile MR-Aided Operation
- Title(参考訳): EVER:モバイルMR支援運転のためのエッジアシスト自動検証
- Authors: Jiangong Chen, Mingyu Zhu, Bin Li,
- Abstract要約: Mixed Reality(MR)支援操作は、物理的な世界のデジタルオブジェクトをオーバーレイし、より没入的で直感的な操作プロセスを提供する。
Everは、モバイルMR支援操作のためのエッジアシスト自動検証システムである。
100ミリ秒以内の検証精度は90%を超える。
- 参考スコア(独自算出の注目度): 8.808170696228865
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Mixed Reality (MR)-aided operation overlays digital objects on the physical world to provide a more immersive and intuitive operation process. A primary challenge is the precise and fast auto-verification of whether the user follows MR guidance by comparing frames before and after each operation. The pre-operation frame includes virtual guiding objects, while the post-operation frame contains physical counterparts. Existing approaches fall short of accounting for the discrepancies between physical and virtual objects due to imperfect 3D modeling or lighting estimation. In this paper, we propose EVER: an edge-assisted auto-verification system for mobile MR-aided operations. Unlike traditional frame-based similarity comparisons, EVER leverages the segmentation model and rendering pipeline adapted to the unique attributes of frames with physical pieces and those with their virtual counterparts; it adopts a threshold-based strategy using Intersection over Union (IoU) metrics for accurate auto-verification. To ensure fast auto-verification and low energy consumption, EVER offloads compute-intensive tasks to an edge server. Through comprehensive evaluations of public datasets and custom datasets with practical implementation, EVER achieves over 90% verification accuracy within 100 milliseconds (significantly faster than average human reaction time of approximately 273 milliseconds), while consuming only minimal additional computational resources and energy compared to a system without auto-verification.
- Abstract(参考訳): Mixed Reality(MR)支援操作は、物理的な世界のデジタルオブジェクトをオーバーレイし、より没入的で直感的な操作プロセスを提供する。
第一の課題は、ユーザがMRガイダンスに従うかどうかを、各操作前後のフレームを比較して正確にかつ高速に自動検証することである。
操作前フレームは仮想ガイドオブジェクトを含み、操作後フレームは物理オブジェクトを含む。
既存のアプローチでは、不完全な3Dモデリングや照明推定のため、物理オブジェクトと仮想オブジェクトの相違を考慮できない。
本稿では,モバイルMR支援操作のためのエッジ支援自動検証システムであるEVERを提案する。
従来のフレームベースの類似性比較とは異なり、EVERはフレームのユニークな属性と仮想的な属性に適合するセグメンテーションモデルとレンダリングパイプラインを活用しており、正確な自動検証のためにIntersection over Union(IoU)メトリクスを使用したしきい値ベースの戦略を採用している。
高速な自動検証と低消費電力を保証するため、EVERは計算集約的なタスクをエッジサーバにオフロードする。
公開データセットとカスタムデータセットの総合的な評価を通じて、EVERは100ミリ秒以内に90%以上の精度(約273ミリ秒の平均反応時間よりも顕著に速い)を達成すると同時に、自動検証のないシステムと比較して、最小限の計算リソースとエネルギしか消費しない。
関連論文リスト
- rt-RISeg: Real-Time Model-Free Robot Interactive Segmentation for Active Instance-Level Object Understanding [7.264443471771696]
本稿では,ロボット同士の相互作用によって見えない物体を連続的に分割する,新しいリアルタイム対話型知覚フレームワークrt-RISegを提案する。
ランダムにサンプリングされた物体フレームの相対的な回転速度と線形速度は,ロボット同士の相互作用によって,学習されたセグメンテーションモデルなしで物体を識別できることを示す。
本稿では,従来のUOIS法よりも平均物体分割精度を27.5%向上させることにより,対話的知覚法の有効性を示す。
論文 参考訳(メタデータ) (2025-07-14T20:02:52Z) - DriveTransformer: Unified Transformer for Scalable End-to-End Autonomous Driving [62.62464518137153]
DriveTransformerは、スケールアップを簡単にするためのシンプルなE2E-ADフレームワークである。
タスク・セルフ・アテンション、センサー・クロス・アテンション、時間的クロス・アテンションという3つの統合された操作で構成されている。
シミュレーションされたクローズドループベンチマークBench2Driveと、FPSの高い実世界のオープンループベンチマークnuScenesの両方で、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-03-07T11:41:18Z) - Fast-COS: A Fast One-Stage Object Detector Based on Reparameterized Attention Vision Transformer for Autonomous Driving [3.617580194719686]
本稿では、シーンを駆動するための新しい単一ステージオブジェクト検出フレームワークであるFast-COSを紹介する。
RAViTはImageNet-1Kデータセットで81.4%のTop-1精度を達成した。
主要なモデルの効率を上回り、最大75.9%のGPU推論速度とエッジデバイスでの1.38のスループットを提供する。
論文 参考訳(メタデータ) (2025-02-11T09:54:09Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - SIMPL: A Simple and Efficient Multi-agent Motion Prediction Baseline for
Autonomous Driving [27.776472262857045]
本稿では,自動運転車のための簡易かつ効率的な運動予測ベースライン(SIMPL)を提案する。
メッセージ転送を対称的に行う,コンパクトで効率的なグローバル機能融合モジュールを提案する。
強力なベースラインとして、SIMPLはArgoverse 1と2のモーション予測ベンチマークで高い競争性能を示す。
論文 参考訳(メタデータ) (2024-02-04T15:07:49Z) - Scalable Vehicle Re-Identification via Self-Supervision [66.2562538902156]
自動車再同定は、都市規模の車両分析システムにおいて重要な要素の1つである。
車両再設計のための最先端のソリューションの多くは、既存のre-idベンチマークの精度向上に重点を置いており、計算の複雑さを無視することが多い。
推論時間に1つのネットワークのみを使用する自己教師型学習によって、シンプルで効果的なハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:14:42Z) - Efficient Global-Local Memory for Real-time Instrument Segmentation of
Robotic Surgical Video [53.14186293442669]
手術器具の知覚における重要な手がかりとして,隣接するフレームからの局所的時間依存性と,長距離における大域的意味的相関があげられる。
本稿では,グローバルとローカルの両方の時間的知識を関連付ける新しいデュアルメモリネットワーク(DMNet)を提案する。
本手法は,実時間速度を維持しながらセグメント化精度を向上する手法である。
論文 参考訳(メタデータ) (2021-09-28T10:10:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。