論文の概要: Towards Efficient Record and Replay: A Case Study in WeChat
- arxiv url: http://arxiv.org/abs/2308.06657v2
- Date: Fri, 25 Aug 2023 09:14:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 14:29:47.621926
- Title: Towards Efficient Record and Replay: A Case Study in WeChat
- Title(参考訳): 効率的な記録と再生に向けて: wechatのケーススタディ
- Authors: Sidong Feng, Haochuan Lu, Ting Xiong, Yuetang Deng, Chunyang Chen
- Abstract要約: GUIレンダリング状態に基づいてイベント間時間を動的に調整する,ライトウェイトなイメージベースアプローチであるWeReplayを導入する。
評価の結果,WeChatアプリのGUIレンダリング状態を識別すると,92.1%の精度と93.3%のリコールが得られることがわかった。
- 参考スコア(独自算出の注目度): 24.659458527088773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: WeChat, a widely-used messenger app boasting over 1 billion monthly active
users, requires effective app quality assurance for its complex features.
Record-and-replay tools are crucial in achieving this goal. Despite the
extensive development of these tools, the impact of waiting time between replay
events has been largely overlooked. On one hand, a long waiting time for
executing replay events on fully-rendered GUIs slows down the process. On the
other hand, a short waiting time can lead to events executing on
partially-rendered GUIs, negatively affecting replay effectiveness. An optimal
waiting time should strike a balance between effectiveness and efficiency. We
introduce WeReplay, a lightweight image-based approach that dynamically adjusts
inter-event time based on the GUI rendering state. Given the real-time
streaming on the GUI, WeReplay employs a deep learning model to infer the
rendering state and synchronize with the replaying tool, scheduling the next
event when the GUI is fully rendered. Our evaluation shows that our model
achieves 92.1% precision and 93.3% recall in discerning GUI rendering states in
the WeChat app. Through assessing the performance in replaying 23 common WeChat
usage scenarios, WeReplay successfully replays all scenarios on the same and
different devices more efficiently than the state-of-the-practice baselines.
- Abstract(参考訳): 10億人以上の月間アクティブユーザーを抱える、広く使われているメッセンジャーアプリWeChatは、複雑な機能に対して効果的なアプリ品質保証を必要とする。
記録再生ツールは、この目標を達成する上で非常に重要です。
これらのツールの広範な開発にもかかわらず、リプレイイベントの待ち時間の影響はほとんど見過ごされている。
一方、完全にレンダリングされたGUI上でリプレイイベントを実行するのを待つ時間は、プロセスが遅くなる。
一方、短い待ち時間は部分的にレンダリングされたgui上で実行されるイベントにつながり、リプレイの有効性に悪影響を及ぼす。
最適な待ち時間は効率と効率のバランスを取るべきである。
GUIレンダリング状態に基づいてイベント間時間を動的に調整する,ライトウェイトなイメージベースアプローチであるWeReplayを導入する。
GUI上のリアルタイムストリーミングを考えると、WeReplayはレンダリング状態を推測し、再生ツールと同期するためにディープラーニングモデルを使用し、GUIが完全にレンダリングされた時に次のイベントをスケジューリングする。
WeChatアプリのGUIレンダリング状態を識別すると,92.1%の精度と93.3%のリコールが得られる。
23の一般的なWeChat使用シナリオのリプレイのパフォーマンスを評価することで、WeReplayは、同じデバイスと異なるデバイス上のすべてのシナリオを、実行時のベースラインよりも効率的に再生することに成功した。
関連論文リスト
- ShowUI: One Vision-Language-Action Model for GUI Visual Agent [80.50062396585004]
グラフィカルユーザインタフェース(GUI)アシスタントの構築は、人間のワークフロー生産性を向上させるための大きな約束である。
デジタルワールドにおける視覚言語アクションモデル、すなわちShowUIを開発し、以下のイノベーションを特徴とする。
256Kデータを使用した軽量な2BモデルであるShowUIは、ゼロショットのスクリーンショットグラウンドで75.1%の精度を実現している。
論文 参考訳(メタデータ) (2024-11-26T14:29:47Z) - TIM: A Time Interval Machine for Audio-Visual Action Recognition [64.24297230981168]
音声と視覚イベントの時間的範囲を明示的にモデル化することで、長いビデオにおける2つのモード間の相互作用に対処する。
本稿では,TIM (Time Interval Machine) を提案する。
我々は、EPIC-KITCHENS、Perception Test、AVEの3つの長い音声視覚ビデオデータセットでTIMをテストする。
論文 参考訳(メタデータ) (2024-04-08T14:30:42Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Graph-based Asynchronous Event Processing for Rapid Object Recognition [59.112755601918074]
イベントカメラは、各イベントがピクセル位置、トリガ時間、明るさの極性が変化するような非同期イベントストリームをキャプチャする。
イベントカメラのための新しいグラフベースのフレームワーク、SlideGCNを紹介した。
当社のアプローチでは、データをイベント単位で効率的に処理し、内部でグラフの構造を維持しながら、イベントデータの低レイテンシ特性を解放することが可能です。
論文 参考訳(メタデータ) (2023-08-28T08:59:57Z) - Curious Replay for Model-based Adaptation [3.9981390090442686]
モデルベースのエージェントに合わせた、優先順位付けされた体験リプレイの形式であるCurious Replayを紹介します。
Curious Replay を用いたエージェントは、動物行動にインスパイアされた探索パラダイムのパフォーマンスを向上させる。
DreamerV3 with Curious ReplayはCrafterベンチマークで最先端のパフォーマンスを上回っている。
論文 参考訳(メタデータ) (2023-06-28T05:34:53Z) - Accelerated Coordinate Encoding: Learning to Relocalize in Minutes using
RGB and Poses [19.362802419289526]
学習に基づく再ローカライズシステムは,5分以内で同じ精度を達成できることを示す。
我々の手法は最先端のシーン座標の回帰よりも300倍高速にマッピングできる。
論文 参考訳(メタデータ) (2023-05-23T13:38:01Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - Event Transformer+. A multi-purpose solution for efficient event data
processing [13.648678472312374]
イベントカメラは、高時間分解能と高ダイナミックレンジでスパース照明変化を記録する。
現在の手法は特定のイベントデータ特性を無視することが多く、汎用的だが計算コストのかかるアルゴリズムの開発に繋がる。
本稿では,改良されたパッチベースのイベント表現を用いて,セマンティックな作業EvTを改善するEvent Transformer+を提案する。
論文 参考訳(メタデータ) (2022-11-22T12:28:37Z) - Towards cumulative race time regression in sports: I3D ConvNet transfer
learning in ultra-distance running events [1.4859458229776121]
本稿では,わずか数秒の映像を入力として,超距離ランナー累積レースタイム(CRT)の回帰を提案する。
得られたニューラルネットワークは、短い入力映像に対して顕著な性能を提供できることを示す。
論文 参考訳(メタデータ) (2022-08-23T20:53:01Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Parallel Actors and Learners: A Framework for Generating Scalable RL
Implementations [14.432131909590824]
強化学習(Reinforcement Learning, RL)は、ロボット工学、ゲーム、医療などの応用分野において大きな成功を収めている。
現在の実装は、不規則なメモリアクセスや同期オーバーヘッドといった問題により、パフォーマンスが劣っている。
マルチコアシステム上でスケーラブルな強化学習を実現するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-03T21:00:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。