論文の概要: A Hybrid Co-Finetuning Approach for Visual Bug Detection in Video Games
- arxiv url: http://arxiv.org/abs/2510.03591v1
- Date: Sat, 04 Oct 2025 00:43:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.137528
- Title: A Hybrid Co-Finetuning Approach for Visual Bug Detection in Video Games
- Title(参考訳): ビデオゲームにおける視覚的バグ検出のためのハイブリッドコネットワーク手法
- Authors: Faliu Yi, Sherif Abdelfattah, Wei Huang, Adrian Brown,
- Abstract要約: ラベル付きデータとラベルなしデータの両方を効果的に統合するハイブリッドCo-FineTuning(CFT)手法を提案する。
対象ゲームからのラベル付きデータの50%をトレーニングしても,CFTは競争性能を維持していることを示す。
- 参考スコア(独自算出の注目度): 3.5838409897789467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Manual identification of visual bugs in video games is a resource-intensive and costly process, often demanding specialized domain knowledge. While supervised visual bug detection models offer a promising solution, their reliance on extensive labeled datasets presents a significant challenge due to the infrequent occurrence of such bugs. To overcome this limitation, we propose a hybrid Co-FineTuning (CFT) method that effectively integrates both labeled and unlabeled data. Our approach leverages labeled samples from the target game and diverse co-domain games, additionally incorporating unlabeled data to enhance feature representation learning. This strategy maximizes the utility of all available data, substantially reducing the dependency on labeled examples from the specific target game. The developed framework demonstrates enhanced scalability and adaptability, facilitating efficient visual bug detection across various game titles. Our experimental results show the robustness of the proposed method for game visual bug detection, exhibiting superior performance compared to conventional baselines across multiple gaming environments. Furthermore, CFT maintains competitive performance even when trained with only 50% of the labeled data from the target game.
- Abstract(参考訳): ビデオゲームにおける視覚的バグのマニュアル識別は、リソース集約的でコストがかかるプロセスであり、しばしば専門的なドメイン知識を必要とする。
教師付き視覚的バグ検出モデルは有望なソリューションを提供するが、ラベル付きデータセットへの依存度は、そのようなバグが頻繁に発生するため、大きな課題となる。
この制限を克服するために、ラベル付きデータとラベルなしデータの両方を効果的に統合するハイブリッドCo-FineTuning(CFT)手法を提案する。
提案手法は,対象ゲームと多種多様なコドメインゲームからのラベル付きサンプルを活用し,また特徴表現学習を強化するためにラベル付きデータを組み込んだ。
この戦略は、利用可能なすべてのデータの有用性を最大化し、ラベル付きサンプルへの依存を特定のターゲットゲームから大幅に低減する。
開発フレームワークは拡張スケーラビリティと適応性を示し、様々なゲームタイトルの視覚的バグの効率的な検出を容易にする。
実験により,複数のゲーム環境にまたがる従来のベースラインよりも優れた性能を示すゲーム視覚バグ検出手法の堅牢性を示した。
さらに、CFTは、目標ゲームからのラベル付きデータの50%しかトレーニングしていない場合でも、競争性能を維持する。
関連論文リスト
- Cluster Aware Graph Anomaly Detection [32.791460110557104]
本稿では,CAREと呼ばれるクラスタ認識型マルチビューグラフ異常検出手法を提案する。
提案手法は,グラフの隣接行列を擬似ラベルで拡張することにより,局所ノード親和性とグローバルノード親和性の両方を捕捉する。
提案した類似性誘導損失は、対照的な学習損失の変種であることを示す。
論文 参考訳(メタデータ) (2024-09-15T15:41:59Z) - A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [89.92916473403108]
本稿では,新しい手法のモジュラーフレームワークであるADerの総合的な視覚異常検出ベンチマークを提案する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - CrossMatch: Enhance Semi-Supervised Medical Image Segmentation with Perturbation Strategies and Knowledge Distillation [7.6057981800052845]
CrossMatchは、ラベル付きデータとラベルなしデータの両方からモデルの学習を改善するために、知識蒸留とデュアル戦略レベルの機能レベルを統合する新しいフレームワークである。
本手法は,ラベル付きデータとラベルなしデータのトレーニングのギャップを効果的に最小化することにより,標準ベンチマークにおける他の最先端技術を大幅に超えている。
論文 参考訳(メタデータ) (2024-05-01T07:16:03Z) - Weak Supervision for Label Efficient Visual Bug Detection [0.0]
リソースによって制限された従来のテストメソッドは、潜在的なバグの多さに対処する上で困難に直面しています。
本研究では,未ラベルゲームプレイとドメイン固有の拡張を利用して,データセットと自己教師対象を生成する手法を提案する。
我々の手法は、弱いスーパービジョンを使用して、人工的な目的のためにデータセットをスケールし、自律的およびインタラクティブな弱いスーパービジョンの両方を促進する。
論文 参考訳(メタデータ) (2023-09-20T06:00:02Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Augment and Criticize: Exploring Informative Samples for Semi-Supervised
Monocular 3D Object Detection [64.65563422852568]
我々は、一般的な半教師付きフレームワークを用いて、難解な単分子3次元物体検出問題を改善する。
我々は、ラベルのないデータから豊富な情報的サンプルを探索する、新しい、シンプルで効果的なAugment and Criticize'フレームワークを紹介します。
3DSeMo_DLEと3DSeMo_FLEXと呼ばれる2つの新しい検出器は、KITTIのAP_3D/BEV(Easy)を3.5%以上改善した。
論文 参考訳(メタデータ) (2023-03-20T16:28:15Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Multi-Environment Pretraining Enables Transfer to Action Limited
Datasets [129.24823721649028]
強化学習では、意思決定の利用可能なデータは、アクションに注釈を付けないことが多い。
そこで本研究では,Emphtarget環境と他のさまざまなEmphsource環境の完全注釈付きデータセットを組み合わせることを提案する。
IDMプレトレーニング中に、さらに1つの連続ラベル付きデータの環境データセットを利用することで、アノテーションのないシーケンスに対するアクションラベルの生成が大幅に改善されることが示される。
論文 参考訳(メタデータ) (2022-11-23T22:48:22Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。