論文の概要: Translating Video Recordings of Mobile App Usages into Replayable
Scenarios
- arxiv url: http://arxiv.org/abs/2005.09057v1
- Date: Mon, 18 May 2020 20:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 00:24:50.965477
- Title: Translating Video Recordings of Mobile App Usages into Replayable
Scenarios
- Title(参考訳): モバイルアプリ利用状況の動画記録を再生可能なシナリオに翻訳する
- Authors: Carlos Bernal-C\'ardenas, Nathan Cooper, Kevin Moran, Oscar Chaparro,
Andrian Marcus and Denys Poshyvanyk
- Abstract要約: V2Sは、Androidアプリのビデオ録画を再生可能なシナリオに変換するための、軽量で自動化されたアプローチである。
機能を実行するユーザから収集した3,534個のGUIベースのアクションと,80以上のAndroidアプリのバグを再現した175本のビデオを含む,V2Sの広範な評価を行った。
- 参考スコア(独自算出の注目度): 24.992877070869177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Screen recordings of mobile applications are easy to obtain and capture a
wealth of information pertinent to software developers (e.g., bugs or feature
requests), making them a popular mechanism for crowdsourced app feedback. Thus,
these videos are becoming a common artifact that developers must manage. In
light of unique mobile development constraints, including swift release cycles
and rapidly evolving platforms, automated techniques for analyzing all types of
rich software artifacts provide benefit to mobile developers. Unfortunately,
automatically analyzing screen recordings presents serious challenges, due to
their graphical nature, compared to other types of (textual) artifacts. To
address these challenges, this paper introduces V2S, a lightweight, automated
approach for translating video recordings of Android app usages into replayable
scenarios. V2S is based primarily on computer vision techniques and adapts
recent solutions for object detection and image classification to detect and
classify user actions captured in a video, and convert these into a replayable
test scenario. We performed an extensive evaluation of V2S involving 175 videos
depicting 3,534 GUI-based actions collected from users exercising features and
reproducing bugs from over 80 popular Android apps. Our results illustrate that
V2S can accurately replay scenarios from screen recordings, and is capable of
reproducing $\approx$ 89% of our collected videos with minimal overhead. A case
study with three industrial partners illustrates the potential usefulness of
V2S from the viewpoint of developers.
- Abstract(参考訳): モバイルアプリの画面記録は、ソフトウェア開発者(バグや機能要求など)が持つ豊富な情報を入手し、取得し得るため、クラウドソースのアプリフィードバックのための一般的なメカニズムである。
したがって、これらのビデオは開発者が管理しなければならない共通のアーティファクトになりつつある。
迅速なリリースサイクルや急速に進化するプラットフォームを含む、ユニークなモバイル開発制約を考慮して、あらゆる種類のリッチソフトウェアアーティファクトを分析する自動化技術は、モバイル開発者に利益をもたらす。
残念なことに、画面記録の自動解析は、他のタイプの(テキスト)アーティファクトと比較して、グラフィカルな性質のため深刻な課題を呈している。
これらの課題に対処するために,Androidアプリのビデオ録画を再生可能なシナリオに変換するための,軽量で自動化されたアプローチであるV2Sを紹介する。
V2Sは主にコンピュータビジョン技術に基づいており、オブジェクト検出と画像分類の最近のソリューションを適用して、ビデオでキャプチャされたユーザーアクションを検出し、分類し、これらを再生可能なテストシナリオに変換する。
ユーザから収集したguiベースのアクション3,534本を含む175本のビデオを含むv2の広範な評価を行い,80以上の人気androidアプリからバグを再現した。
その結果、v2sはスクリーン録画からシナリオを正確に再生でき、収集したビデオの約89%を最小限のオーバーヘッドで再生できることがわかった。
3つの産業パートナーによるケーススタディは、開発者の視点からv2sの潜在的有用性を示している。
関連論文リスト
- V^3: Viewing Volumetric Videos on Mobiles via Streamable 2D Dynamic Gaussians [53.614560799043545]
V3 (Viewing Volumetric Videos) は,ダイナミックガウスのストリーミングによる高品質なモバイルレンダリングを実現する,新たなアプローチである。
私たちの重要なイノベーションは、ダイナミックな3DGSを2Dビデオと見なすことで、ハードウェアビデオコーデックの使用を促進することです。
モバイル端末でダイナミックなガウシアンをストリームする最初の手段として、私たちのコンパニオンプレーヤーは、前例のないボリュームビデオ体験をユーザに提供します。
論文 参考訳(メタデータ) (2024-09-20T16:54:27Z) - RACCooN: A Versatile Instructional Video Editing Framework with Auto-Generated Narratives [58.15403987979496]
本稿では,RACCooNを提案する。
ビデオ生成モデルは、自動生成された物語や指示を取り入れて、生成されたコンテンツの質と精度を高める。
提案フレームワークは,ビデオ・パラグラフ生成,映像コンテンツ編集において優れた多機能性を示し,さらに拡張するために他のSoTAビデオ生成モデルに組み込むことができる。
論文 参考訳(メタデータ) (2024-05-28T17:46:36Z) - Composed Video Retrieval via Enriched Context and Discriminative Embeddings [118.66322242183249]
コンポジションビデオ検索(CoVR)はコンピュータビジョンにおいて難しい問題である。
本稿では,クエリ固有のコンテキスト情報を明示的にエンコードするために,詳細な言語記述を活用する新しいCoVRフレームワークを提案する。
我々の手法はリコール@K=1のスコアで7%の上昇を達成した。
論文 参考訳(メタデータ) (2024-03-25T17:59:03Z) - Authentication and integrity of smartphone videos through multimedia
container structure analysis [9.781421596580298]
本研究は,MP4,MOV,3GPフォーマットビデオに対する攻撃の可能性を検出する新しい手法を提案する。
この提案の目的は、ビデオの完全性を確認し、買収の源を識別し、オリジナルと操作されたビデオの区別を行うことである。
論文 参考訳(メタデータ) (2024-02-05T22:34:24Z) - EasyVolcap: Accelerating Neural Volumetric Video Research [69.59671164891725]
ボリュームビデオは、芸術的パフォーマンス、スポーツイベント、リモート会話などの動的イベントをデジタル的に記録する技術である。
EasyVolcapはPythonとPytorchのライブラリで、マルチビューデータ処理、4Dシーン再構成、効率的なダイナミックボリュームビデオレンダリングのプロセスを統一する。
論文 参考訳(メタデータ) (2023-12-11T17:59:46Z) - Playable Video Generation [47.531594626822155]
我々は,ユーザが生成した映像を,ビデオゲームのように毎回個別のアクションを選択することで制御できるようにすることを目標とする。
タスクの難しさは、意味的に一貫性のあるアクションを学習することと、ユーザ入力に条件付けされたリアルなビデオを生成することの両方にある。
本稿では,ビデオの大規模なデータセットに基づいて,自己教師型で訓練されたPVGのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-28T18:55:58Z) - It Takes Two to Tango: Combining Visual and Textual Information for
Detecting Duplicate Video-Based Bug Reports [19.289285682720177]
本稿では,ビデオベースのバグレポートに基づく重複検出手法であるtangoを提案する。
4,860件の重複検出タスクを総合的に評価し、タンゴの複数の構成を評価します。
平均して、Tangoは開発者の労力を60%以上削減し、実用性を示している。
論文 参考訳(メタデータ) (2021-01-22T16:36:19Z) - TinyVIRAT: Low-resolution Video Action Recognition [70.37277191524755]
現実世界の監視環境では、ビデオ内のアクションは幅広い解像度でキャプチャされる。
天然の低解像度アクティビティを含むベンチマークデータセットTinyVIRATを導入する。
本稿では,プログレッシブ・ジェネレーティブ・アプローチを用いたビデオにおける小さな動作を認識する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。