論文の概要: Weak Supervision for Label Efficient Visual Bug Detection
- arxiv url: http://arxiv.org/abs/2309.11077v1
- Date: Wed, 20 Sep 2023 06:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 13:06:53.367643
- Title: Weak Supervision for Label Efficient Visual Bug Detection
- Title(参考訳): ラベル効率の良い視覚バグ検出のための弱視
- Authors: Farrukh Rahman
- Abstract要約: リソースによって制限された従来のテストメソッドは、潜在的なバグの多さに対処する上で困難に直面しています。
本研究では,未ラベルゲームプレイとドメイン固有の拡張を利用して,データセットと自己教師対象を生成する手法を提案する。
我々の手法は、弱いスーパービジョンを使用して、人工的な目的のためにデータセットをスケールし、自律的およびインタラクティブな弱いスーパービジョンの両方を促進する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As video games evolve into expansive, detailed worlds, visual quality becomes
essential, yet increasingly challenging. Traditional testing methods, limited
by resources, face difficulties in addressing the plethora of potential bugs.
Machine learning offers scalable solutions; however, heavy reliance on large
labeled datasets remains a constraint. Addressing this challenge, we propose a
novel method, utilizing unlabeled gameplay and domain-specific augmentations to
generate datasets & self-supervised objectives used during pre-training or
multi-task settings for downstream visual bug detection. Our methodology uses
weak-supervision to scale datasets for the crafted objectives and facilitates
both autonomous and interactive weak-supervision, incorporating unsupervised
clustering and/or an interactive approach based on text and geometric prompts.
We demonstrate on first-person player clipping/collision bugs (FPPC) within the
expansive Giantmap game world, that our approach is very effective, improving
over a strong supervised baseline in a practical, very low-prevalence, low data
regime (0.336 $\rightarrow$ 0.550 F1 score). With just 5 labeled "good"
exemplars (i.e., 0 bugs), our self-supervised objective alone captures enough
signal to outperform the low-labeled supervised settings. Building on
large-pretrained vision models, our approach is adaptable across various visual
bugs. Our results suggest applicability in curating datasets for broader image
and video tasks within video games beyond visual bugs.
- Abstract(参考訳): ビデオゲームが拡張的で詳細な世界へと進化するにつれ、視覚的品質は不可欠だがますます困難になっている。
リソースによって制限される従来のテスト方法は、潜在的なバグの多さに対処するのに困難に直面します。
機械学習はスケーラブルなソリューションを提供するが、大きなラベル付きデータセットに依存することは制約である。
そこで本研究では,未ラベルゲームプレイとドメイン特化拡張を利用して,事前トレーニングやマルチタスク設定で使用するデータセットと自己教師付き目標を生成し,下流の視覚バグ検出を行う新しい手法を提案する。
提案手法では,テキストと幾何学的プロンプトに基づく非教師なしクラスタリングおよび/または対話的アプローチを取り入れて,作業対象のデータセットを縮小し,自律的および対話的両方の弱スーパービジョンを促進する。
広義のジャイアントマップゲーム世界におけるfppc(first-person player clipping/collision bugs)について,我々のアプローチは極めて効果的であり,実用的かつ極めて低評価な低データレジーム(0.336$\rightarrow$ 0.550 f1スコア)において,強力な教師付きベースラインよりも改善されていることを実証した。
5つのラベルの付いた「良い」例(つまり0のバグ)だけで、我々の自己監督目的だけで、低ラベルの教師付き設定を上回る十分なシグナルを捉えます。
大きな事前訓練された視覚モデルに基づいて、我々のアプローチは様々な視覚的バグに適応できる。
その結果,視覚的なバグ以外にも,ビデオゲーム内のより広い画像やビデオタスクのためのデータセットのキュレーションに応用できる可能性が示唆された。
関連論文リスト
- Unified Domain Generalization and Adaptation for Multi-View 3D Object Detection [14.837853049121687]
マルチビューカメラを利用した3次元物体検出は, 視覚課題における実用的, 経済的価値を実証した。
典型的な教師付き学習アプローチは、目に見えない、ラベルなしのターゲットデータセットに対する満足な適応を達成する上で、課題に直面します。
本稿では、これらの欠点を軽減するための実践的なソリューションとして、統一ドメイン一般化・適応(UDGA)を提案する。
論文 参考訳(メタデータ) (2024-10-29T18:51:49Z) - CableInspect-AD: An Expert-Annotated Anomaly Detection Dataset [14.246172794156987]
$textitCableInspect-AD$は、カナダの公共ユーティリティであるHydro-Qu'ebecのドメインエキスパートによって作成、注釈付けされた高品質なデータセットである。
このデータセットには、現実世界の異常に挑戦する高解像度の画像が含まれており、さまざまな重度レベルの欠陥をカバーしている。
モデルの性能を評価するために,クロスバリデーションに基づく包括的評価プロトコルを提案する。
論文 参考訳(メタデータ) (2024-09-30T14:50:13Z) - Plain-Det: A Plain Multi-Dataset Object Detector [22.848784430833835]
Plain-Detは、新しいデータセットに対応する柔軟性、さまざまなデータセットのパフォーマンス、トレーニング効率を提供する。
13の下流データセットに対して広範な実験を行い、Plain-Detは強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-07-14T05:18:06Z) - Augment and Criticize: Exploring Informative Samples for Semi-Supervised
Monocular 3D Object Detection [64.65563422852568]
我々は、一般的な半教師付きフレームワークを用いて、難解な単分子3次元物体検出問題を改善する。
我々は、ラベルのないデータから豊富な情報的サンプルを探索する、新しい、シンプルで効果的なAugment and Criticize'フレームワークを紹介します。
3DSeMo_DLEと3DSeMo_FLEXと呼ばれる2つの新しい検出器は、KITTIのAP_3D/BEV(Easy)を3.5%以上改善した。
論文 参考訳(メタデータ) (2023-03-20T16:28:15Z) - Multi-Environment Pretraining Enables Transfer to Action Limited
Datasets [129.24823721649028]
強化学習では、意思決定の利用可能なデータは、アクションに注釈を付けないことが多い。
そこで本研究では,Emphtarget環境と他のさまざまなEmphsource環境の完全注釈付きデータセットを組み合わせることを提案する。
IDMプレトレーニング中に、さらに1つの連続ラベル付きデータの環境データセットを利用することで、アノテーションのないシーケンスに対するアクションラベルの生成が大幅に改善されることが示される。
論文 参考訳(メタデータ) (2022-11-23T22:48:22Z) - Generative Modeling Helps Weak Supervision (and Vice Versa) [87.62271390571837]
本稿では,弱い監督と生成的敵ネットワークを融合したモデルを提案する。
弱い監督によるラベル推定と並行して、データの離散変数をキャプチャする。
これは、弱い教師付き合成画像と擬似ラベルによるデータ拡張を可能にする最初のアプローチである。
論文 参考訳(メタデータ) (2022-03-22T20:24:21Z) - Semantic Tracklets: An Object-Centric Representation for Visual
Multi-Agent Reinforcement Learning [126.57680291438128]
本研究では,不整合表現によるスケーラビリティの実現について検討する。
視覚多エージェント粒子環境(VMPE)と視覚多エージェントGFootball環境における意味トラックレット'の評価を行った。
特に,この手法は視覚データのみを用いて,GFootball環境における5人のプレイヤーの戦略を学習した最初の方法である。
論文 参考訳(メタデータ) (2021-08-06T22:19:09Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。