論文の概要: An Empirical Study on Leveraging Images in Automated Bug Report Reproduction
- arxiv url: http://arxiv.org/abs/2502.15099v1
- Date: Thu, 20 Feb 2025 23:40:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 16:10:34.538399
- Title: An Empirical Study on Leveraging Images in Automated Bug Report Reproduction
- Title(参考訳): 自動バグレポートにおける画像の活用に関する実証的研究
- Authors: Dingbang Wang, Zhaoxu Zhang, Sidong Feng, William G. J. Halfond, Tingting Yu,
- Abstract要約: 本研究は,自動バグ再現において,入力に画像を含める必要性について検討する。
我々は、画像がバグレポートに果たす機能的役割を6つ特定し、それぞれに固有のパターンとバグ再現プロセスへの特定の貢献を示す。
- 参考スコア(独自算出の注目度): 8.960647110334655
- License:
- Abstract: Automated bug reproduction is a challenging task, with existing tools typically relying on textual steps-to-reproduce, videos, or crash logs in bug reports as input. However, images provided in bug reports have been overlooked. To address this gap, this paper presents an empirical study investigating the necessity of including images as part of the input in automated bug reproduction. We examined the characteristics and patterns of images in bug reports, focusing on (1) the distribution and types of images (e.g., UI screenshots), (2) documentation patterns associated with images (e.g., accompanying text, annotations), and (3) the functional roles they served, particularly their contribution to reproducing bugs. Furthermore, we analyzed the impact of images on the performance of existing tools, identifying the reasons behind their influence and the ways in which they can be leveraged to improve bug reproduction. Our findings reveal several key insights that demonstrate the importance of images in supporting automated bug reproduction. Specifically, we identified six distinct functional roles that images serve in bug reports, each exhibiting unique patterns and specific contributions to the bug reproduction process. This study offers new insights into tool advancement and suggests promising directions for future research.
- Abstract(参考訳): 既存のツールは、通常、入力としてバグレポートのテキストのステップ・トゥ・リプロデューサ、ビデオ、クラッシュログに依存する。
しかし、バグ報告で提供される画像は見過ごされている。
このギャップに対処するため,本研究では,自動バグ再現において,入力に画像を含めることの必要性を実証的に検討する。
本研究では,(1)画像の分布と種類(例:UIスクリーンショット),(2)画像に関連する文書化パターン(例:テキスト,アノテーション),(3)機能的役割,特にバグの再現に寄与することに着目し,バグレポートにおける画像の特徴とパターンについて検討した。
さらに,画像が既存ツールの性能に与える影響を解析し,その影響の背景にある理由と,バグの再現性向上に活用する方法を明らかにした。
この結果から,自動バグ再現を支援する上でのイメージの重要性が示唆された。
具体的には、画像がバグレポートに現れる6つの機能的役割を特定し、それぞれに固有のパターンとバグ再現プロセスへの特定の貢献を示す。
本研究は,ツールの進歩に関する新たな知見を提供し,今後の研究に向けての有望な方向性を提案する。
関連論文リスト
- Semantic GUI Scene Learning and Video Alignment for Detecting Duplicate Video-based Bug Reports [16.45808969240553]
ビデオベースのバグレポートは、グラフィカルユーザインタフェース(GUI)を中心としたプログラムのバグの文書化にますます利用されている。
我々は、視覚変換器のシーン学習機能に適応して、アプリUI画面に現れる微妙な視覚的およびテキスト的パターンをキャプチャする、JANUSと呼ばれる新しいアプローチを導入する。
Janus氏はまた、ビデオフレームの適応重み付けが可能なビデオアライメント技術を使用して、典型的なバグ発生パターンを考慮している。
論文 参考訳(メタデータ) (2024-07-11T15:48:36Z) - Contrastive Prompts Improve Disentanglement in Text-to-Image Diffusion
Models [68.47333676663312]
テキスト・ツー・イメージ・モデルにおける画像要素のアンタングル化に有効な分類器フリーガイダンスの簡単な修正法を示す。
提案手法のキーとなる考え方は、最小限のトークンで異なる2つのプロンプトを持つ意図された要因を特徴づけることである。
我々は,(1)オブジェクトクラスで訓練されたドメイン固有拡散モデル,(2)テキスト・画像生成のための連続的なリグライクな制御,(3)ゼロショット画像エディタの性能向上の3つのシナリオにおいて,その利点を説明する。
論文 参考訳(メタデータ) (2024-02-21T03:01:17Z) - MultiDimEr: a multi-dimensional bug analyzEr [5.318531077716712]
技術的負債を特定するために,バグレポートの次元を分類し,視覚化する。
この証拠は、実践者や意思決定者に対して、改善努力を操縦するための議論的な基盤としてだけでなく、根本原因分析の出発点としても役立つ。
論文 参考訳(メタデータ) (2024-02-16T16:00:42Z) - Counterfactual Image Editing [54.21104691749547]
対物画像編集は、生成AIにおいて重要なタスクであり、ある機能が異なる場合、画像がどのように見えるかを尋ねる。
本稿では,形式言語を用いた対物画像編集タスクを形式化し,潜在生成因子と画像の因果関係をモデル化する。
ニューラル因果モデルを利用して、対物画像を生成する効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-02-07T20:55:39Z) - Toward Rapid Bug Resolution for Android Apps [0.4759142872591625]
本稿では,既存のバグレポートの限界について述べるとともに,それに対応するための潜在的戦略を明らかにする。
私たちのビジョンは、これらの制限の緩和と、提案された新しい研究の方向性の実行が、レポーターと開発者の両方に利益をもたらす、未来を包含しています。
論文 参考訳(メタデータ) (2023-12-23T18:29:06Z) - CausalImages: An R Package for Causal Inference with Earth Observation,
Bio-medical, and Social Science Images [4.532517021515833]
causalimages Rパッケージは、画像および画像シーケンスデータによる因果推論を可能にする。
1つの関数セットは、画像ベースの因果推論分析を可能にする。
大規模画像や画像シーケンスデータを逐次化されたバイト文字列として記述するツールなど、インフラ機能も備えている。
論文 参考訳(メタデータ) (2023-09-30T02:52:49Z) - Semantic Prompt for Few-Shot Image Recognition [76.68959583129335]
本稿では,数ショット学習のための新しいセマンティック・プロンプト(SP)手法を提案する。
提案手法は,1ショットの学習精度を平均3.67%向上させることにより,有望な結果が得られる。
論文 参考訳(メタデータ) (2023-03-24T16:32:19Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - Where Does the Performance Improvement Come From? - A Reproducibility
Concern about Image-Text Retrieval [85.03655458677295]
画像テキスト検索は、情報検索分野において、徐々に主要な研究方向になりつつある。
まず、画像テキスト検索タスクに焦点が当てられている理由と関連性について検討する。
本研究では,事前学習と非事前学習による検索モデルの再現の諸側面を解析する。
論文 参考訳(メタデータ) (2022-03-08T05:01:43Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。