論文の概要: Translating Video Recordings of Mobile App Usages into Replayable
Scenarios
- arxiv url: http://arxiv.org/abs/2005.09057v1
- Date: Mon, 18 May 2020 20:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 00:24:50.965477
- Title: Translating Video Recordings of Mobile App Usages into Replayable
Scenarios
- Title(参考訳): モバイルアプリ利用状況の動画記録を再生可能なシナリオに翻訳する
- Authors: Carlos Bernal-C\'ardenas, Nathan Cooper, Kevin Moran, Oscar Chaparro,
Andrian Marcus and Denys Poshyvanyk
- Abstract要約: V2Sは、Androidアプリのビデオ録画を再生可能なシナリオに変換するための、軽量で自動化されたアプローチである。
機能を実行するユーザから収集した3,534個のGUIベースのアクションと,80以上のAndroidアプリのバグを再現した175本のビデオを含む,V2Sの広範な評価を行った。
- 参考スコア(独自算出の注目度): 24.992877070869177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Screen recordings of mobile applications are easy to obtain and capture a
wealth of information pertinent to software developers (e.g., bugs or feature
requests), making them a popular mechanism for crowdsourced app feedback. Thus,
these videos are becoming a common artifact that developers must manage. In
light of unique mobile development constraints, including swift release cycles
and rapidly evolving platforms, automated techniques for analyzing all types of
rich software artifacts provide benefit to mobile developers. Unfortunately,
automatically analyzing screen recordings presents serious challenges, due to
their graphical nature, compared to other types of (textual) artifacts. To
address these challenges, this paper introduces V2S, a lightweight, automated
approach for translating video recordings of Android app usages into replayable
scenarios. V2S is based primarily on computer vision techniques and adapts
recent solutions for object detection and image classification to detect and
classify user actions captured in a video, and convert these into a replayable
test scenario. We performed an extensive evaluation of V2S involving 175 videos
depicting 3,534 GUI-based actions collected from users exercising features and
reproducing bugs from over 80 popular Android apps. Our results illustrate that
V2S can accurately replay scenarios from screen recordings, and is capable of
reproducing $\approx$ 89% of our collected videos with minimal overhead. A case
study with three industrial partners illustrates the potential usefulness of
V2S from the viewpoint of developers.
- Abstract(参考訳): モバイルアプリの画面記録は、ソフトウェア開発者(バグや機能要求など)が持つ豊富な情報を入手し、取得し得るため、クラウドソースのアプリフィードバックのための一般的なメカニズムである。
したがって、これらのビデオは開発者が管理しなければならない共通のアーティファクトになりつつある。
迅速なリリースサイクルや急速に進化するプラットフォームを含む、ユニークなモバイル開発制約を考慮して、あらゆる種類のリッチソフトウェアアーティファクトを分析する自動化技術は、モバイル開発者に利益をもたらす。
残念なことに、画面記録の自動解析は、他のタイプの(テキスト)アーティファクトと比較して、グラフィカルな性質のため深刻な課題を呈している。
これらの課題に対処するために,Androidアプリのビデオ録画を再生可能なシナリオに変換するための,軽量で自動化されたアプローチであるV2Sを紹介する。
V2Sは主にコンピュータビジョン技術に基づいており、オブジェクト検出と画像分類の最近のソリューションを適用して、ビデオでキャプチャされたユーザーアクションを検出し、分類し、これらを再生可能なテストシナリオに変換する。
ユーザから収集したguiベースのアクション3,534本を含む175本のビデオを含むv2の広範な評価を行い,80以上の人気androidアプリからバグを再現した。
その結果、v2sはスクリーン録画からシナリオを正確に再生でき、収集したビデオの約89%を最小限のオーバーヘッドで再生できることがわかった。
3つの産業パートナーによるケーススタディは、開発者の視点からv2sの潜在的有用性を示している。
関連論文リスト
- Authentication and integrity of smartphone videos through multimedia
container structure analysis [9.781421596580298]
本研究は,MP4,MOV,3GPフォーマットビデオに対する攻撃の可能性を検出する新しい手法を提案する。
この提案の目的は、ビデオの完全性を確認し、買収の源を識別し、オリジナルと操作されたビデオの区別を行うことである。
論文 参考訳(メタデータ) (2024-02-05T22:34:24Z) - Detours for Navigating Instructional Videos [63.5406107583575]
We propose VidDetours, a video-lang approach that learn to retrieve the target temporal segments from a large repository of how-to's。
本稿では,ビデオ検索と質問応答の最良の方法に比べて,モデルが大幅に改善し,リコール率が35%を超えることを示す。
論文 参考訳(メタデータ) (2024-01-03T16:38:56Z) - EasyVolcap: Accelerating Neural Volumetric Video Research [69.59671164891725]
ボリュームビデオは、芸術的パフォーマンス、スポーツイベント、リモート会話などの動的イベントをデジタル的に記録する技術である。
EasyVolcapはPythonとPytorchのライブラリで、マルチビューデータ処理、4Dシーン再構成、効率的なダイナミックボリュームビデオレンダリングのプロセスを統一する。
論文 参考訳(メタデータ) (2023-12-11T17:59:46Z) - Dynamic Storyboard Generation in an Engine-based Virtual Environment for
Video Production [92.14891282042764]
VDS(Virtual Dynamic Storyboard)を導入し,仮想環境でのストーリーボード撮影を可能にする。
形式化されたストーリースクリプトとカメラスクリプトが入力として与えられたら、いくつかのキャラクターアニメーションとカメラムーブメント提案を生成する。
候補から高品質なダイナミックなストーリーボードをピックアップするために,プロのマニュアル作成データから学習したショット品質基準に基づいて,ショットランキング判別器を装備する。
論文 参考訳(メタデータ) (2023-01-30T06:37:35Z) - Sports Video Analysis on Large-Scale Data [10.24207108909385]
本稿では,スポーツビデオにおける自動機械記述のモデル化について検討する。
スポーツビデオ分析のためのNBAデータセット(NSVA)を提案する。
論文 参考訳(メタデータ) (2022-08-09T16:59:24Z) - Perceptual Quality Assessment of Virtual Reality Videos in the Wild [50.33693148440248]
既存のパノラマビデオデータベースでは、合成歪みのみを考慮し、一定の視聴条件を仮定し、サイズに制限がある。
我々はVRVQW(VR Video Quality in the Wild)データベースを構築した。
我々は,2つの異なる視聴条件下で,139ドルの被験者から,スキャンパスと品質スコアを記録するための正式な心理物理実験を行った。
論文 参考訳(メタデータ) (2022-06-13T02:22:57Z) - Playable Video Generation [47.531594626822155]
我々は,ユーザが生成した映像を,ビデオゲームのように毎回個別のアクションを選択することで制御できるようにすることを目標とする。
タスクの難しさは、意味的に一貫性のあるアクションを学習することと、ユーザ入力に条件付けされたリアルなビデオを生成することの両方にある。
本稿では,ビデオの大規模なデータセットに基づいて,自己教師型で訓練されたPVGのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-28T18:55:58Z) - It Takes Two to Tango: Combining Visual and Textual Information for
Detecting Duplicate Video-Based Bug Reports [19.289285682720177]
本稿では,ビデオベースのバグレポートに基づく重複検出手法であるtangoを提案する。
4,860件の重複検出タスクを総合的に評価し、タンゴの複数の構成を評価します。
平均して、Tangoは開発者の労力を60%以上削減し、実用性を示している。
論文 参考訳(メタデータ) (2021-01-22T16:36:19Z) - TinyVIRAT: Low-resolution Video Action Recognition [70.37277191524755]
現実世界の監視環境では、ビデオ内のアクションは幅広い解像度でキャプチャされる。
天然の低解像度アクティビティを含むベンチマークデータセットTinyVIRATを導入する。
本稿では,プログレッシブ・ジェネレーティブ・アプローチを用いたビデオにおける小さな動作を認識する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。