論文の概要: ImageR: Enhancing Bug Report Clarity by Screenshots
- arxiv url: http://arxiv.org/abs/2505.01925v1
- Date: Sat, 03 May 2025 21:31:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.330679
- Title: ImageR: Enhancing Bug Report Clarity by Screenshots
- Title(参考訳): ImageR: スクリーンショットによるバグレポートの明確化
- Authors: Xuchen Tan, Deenu Yadav, Faiz Ahmed, Maleknaz Nayebi,
- Abstract要約: 私たちは、スクリーンショットを含む潜在的なメリットを評価するために、イシューレポートを分析するAIモデルとツールであるImageRを紹介します。
ImageRは、関連したビジュアルを積極的に提案することで、イシューレポートをより明確で、より情報的で、時間効率の高いものにすることを目指している。
我々は、6,235のBugzillaイシューからなるデータセットをキュレートし、公開し、それぞれに画像アタッチメントの種類を慎重にラベル付けした。
- 参考スコア(独自算出の注目度): 2.0749231618270803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In issue-tracking systems, incorporating screenshots significantly enhances the clarity of bug reports, facilitating more efficient communication and expediting issue resolution. However, determining when and what type of visual content to include remains challenging, as not all attachments effectively contribute to problem-solving; studies indicate that 22.5% of images in issue reports fail to aid in resolving the reported issues. To address this, we introduce ImageR, an AI model and tool that analyzes issue reports to assess the potential benefits of including screenshots and recommends the most pertinent types when appropriate. By proactively suggesting relevant visuals, ImageR aims to make issue reports clearer, more informative, and time-efficient. We have curated and publicly shared a dataset comprising 6,235 Bugzilla issues, each meticulously labeled with the type of image attachment, providing a valuable resource for benchmarking and advancing research in image processing within developer communication contexts. To evaluate ImageR, we conducted empirical experiments on a subset of these reports from various Mozilla projects. The tool achieved an F1-score of 0.76 in determining when images are needed, with 75% of users finding its recommendations highly valuable. By minimizing the back-and-forth communication often needed to obtain suitable screenshots, ImageR streamlines the bug reporting process. Furthermore, it guides users in selecting the most effective visual documentation from ten established categories, potentially reducing resolution times and improving the quality of bug documentation. ImageR is open-source, inviting further use and improvement by the community. The labeled dataset offers a rare resource for benchmarking and exploring image processing in the context of developer communication.
- Abstract(参考訳): 課題追跡システムでは、スクリーンショットを組み込むことで、バグレポートの明確化が著しく向上し、コミュニケーションの効率化と課題解決の迅速化が図られる。
しかしながら、全ての添付物が問題の解決に効果的に寄与するわけではないため、いつ、どの種類のビジュアルコンテンツを含むかは依然として困難なままであり、問題報告中の22.5%の画像が報告された問題の解決に役立たなかったことが研究で示されている。
この問題に対処するために、ImageRというAIモデルとツールを導入し、イシューレポートを分析し、スクリーンショットを含めることの潜在的なメリットを評価し、適切であれば最も適切な型を推奨します。
ImageRは、関連したビジュアルを積極的に提案することで、イシューレポートをより明確で、より情報的で、時間効率の高いものにすることを目指している。
我々は、6,235のBugzillaイシューからなるデータセットをキュレートし、公開し、それぞれにイメージアタッチメントのタイプを慎重にラベル付けし、開発者のコミュニケーションコンテキストにおける画像処理の研究をベンチマークし進めるための貴重なリソースを提供する。
ImageRを評価するために、Mozillaのさまざまなプロジェクトからのレポートのサブセットについて実験を行った。
このツールは、画像がいつ必要か決定する際のF1スコア0.76を達成し、75%のユーザがそのレコメンデーションに非常に価値を見出している。
適切なスクリーンショットを得るために必要なバック・アンド・フォース通信を最小化することで、ImageRはバグ報告プロセスを合理化する。
さらに、10の確立したカテゴリから最も効果的なビジュアルドキュメントを選択し、解決時間を短縮し、バグドキュメントの品質を改善するようにユーザを誘導する。
ImageRはオープンソースで、コミュニティによるさらなる利用と改善を呼びかけている。
ラベル付きデータセットは、開発者コミュニケーションのコンテキストにおけるイメージ処理のベンチマークと探索のための希少なリソースを提供する。
関連論文リスト
- Picking the Cream of the Crop: Visual-Centric Data Selection with Collaborative Agents [62.616106562146776]
textbfVisual-Centric textbfSelection approach by textbfAgents Collaboration (ViSA)を提案する。
提案手法は,(1)視覚エージェントの協調による画像情報定量化手法により,リッチな視覚情報を持つ画像を選択する方法,(2)高品質な画像に関連する高品質な画像を選択する視覚中心の指示品質評価手法からなる。
論文 参考訳(メタデータ) (2025-02-27T09:37:30Z) - A Comprehensive Survey on Composed Image Retrieval [54.54527281731775]
Composed Image Retrieval (CIR)は、ユーザがマルチモーダルクエリを使ってターゲットイメージを検索できる、新しくて困難なタスクである。
現在、この分野のタイムリーな概要を提供するため、CIRの包括的なレビューは行われていない。
我々は、ACM TOIS、SIGIR、CVPRなど、トップカンファレンスやジャーナルで120以上の出版物から洞察を合成する。
論文 参考訳(メタデータ) (2025-02-19T01:37:24Z) - BRIDGE: Bridging Gaps in Image Captioning Evaluation with Stronger Visual Cues [47.213906345208315]
本稿では,新たな学習可能かつ参照不要な画像キャプション指標BRIDGEを提案する。
提案手法は,既存の基準フリー評価スコアと比較して,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-07-29T18:00:17Z) - Visual Haystacks: A Vision-Centric Needle-In-A-Haystack Benchmark [63.296342841358815]
大規模マルチモーダルモデル(LMM)は、単一画像に対する視覚的質問応答において大きな進歩を遂げている。
多数の視覚トークンを処理する能力は、複数画像の質問応答に対する効果的な検索と推論を保証するものではない。
オープンソースで軽量なビジュアルRAGフレームワークであるMIRAGEを導入し、単一の40G A100 GPU上で最大10Kイメージを処理する。
論文 参考訳(メタデータ) (2024-07-18T17:59:30Z) - Negative Results of Image Processing for Identifying Duplicate Questions on Stack Overflow [2.2667044928324747]
Stack Overflow上の重複した質問を識別するための画像ベース手法について検討した。
まず,画像からのテキストを疑問テキストに統合し,第2に画像キャプションを用いて視覚的内容に基づいて画像を評価する。
私たちの研究は、簡単な複製と仮説検証の基盤を築き、将来の研究を私たちのアプローチの上に構築します。
論文 参考訳(メタデータ) (2024-07-08T00:14:21Z) - The Solution for the ICCV 2023 1st Scientific Figure Captioning Challenge [19.339645217996235]
本稿では,紙の数字に対して生成されたキャプションの品質を改善するためのソリューションを提案する。
最終テストでは4.49点で1位にランクインした。
論文 参考訳(メタデータ) (2024-03-26T03:03:50Z) - Metrics reloaded: Recommendations for image analysis validation [59.60445111432934]
メトリクスのリロード(Metrics Reloaded)は、メトリクスの問題を意識した選択において研究者を導く包括的なフレームワークである。
このフレームワークは多段階のDelphiプロセスで開発され、問題指紋という新しい概念に基づいている。
問題指紋に基づいて、ユーザは適切なバリデーションメトリクスを選択して適用するプロセスを通じてガイドされる。
論文 参考訳(メタデータ) (2022-06-03T15:56:51Z) - Two-stage Visual Cues Enhancement Network for Referring Image
Segmentation [89.49412325699537]
Referring Image (RIS)は、ある自然言語表現によって参照される画像から対象のオブジェクトをセグメント化することを目的としている。
本稿では,2段階のビジュアルキュー拡張ネットワーク(TV-Net)を考案し,この問題に対処する。
この2段階の強化により,提案するTV-Netは,自然言語表現と画像間のきめ細かいマッチング動作の学習において,より優れた性能を享受できる。
論文 参考訳(メタデータ) (2021-10-09T02:53:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。