論文の概要: GFreeDet: Exploiting Gaussian Splatting and Foundation Models for Model-free Unseen Object Detection in the BOP Challenge 2024
- arxiv url: http://arxiv.org/abs/2412.01552v2
- Date: Tue, 03 Dec 2024 04:28:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:42:31.581034
- Title: GFreeDet: Exploiting Gaussian Splatting and Foundation Models for Model-free Unseen Object Detection in the BOP Challenge 2024
- Title(参考訳): GFreeDet:2024年BOPチャレンジにおけるモデルフリーな未確認物体検出のためのガウス散乱と基礎モデルの構築
- Authors: Xingyu Liu, Yingyue Li, Chengxi Li, Gu Wang, Chenyangguang Zhang, Ziqin Huang, Xiangyang Ji,
- Abstract要約: 本稿では,提案手法であるGFreeDetの技術的詳細について述べる。BOP 2024 Challengeにおいて,モデルフリーの未確認物体検出トラックに対して,ガウススプラッティングとビジョンファウンデーションモデルを利用する。
- 参考スコア(独自算出の注目度): 49.6703756278571
- License:
- Abstract: In this report, we provide the technical details of the submitted method GFreeDet, which exploits Gaussian splatting and vision Foundation models for the model-free unseen object Detection track in the BOP 2024 Challenge.
- Abstract(参考訳): 本稿では,提案手法であるGFreeDetの技術的詳細について述べる。BOP 2024 Challengeにおいて,モデルフリーの未確認物体検出トラックに対して,ガウススプラッティングとビジョンファウンデーションモデルを利用する。
関連論文リスト
- Derivative-Free Diffusion Manifold-Constrained Gradient for Unified XAI [59.96044730204345]
微分自由拡散多様体制約勾配(FreeMCG)を導入する。
FreeMCGは、与えられたニューラルネットワークの説明可能性を改善する基盤として機能する。
提案手法は,XAIツールが期待する本質性を保ちながら,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2024-11-22T11:15:14Z) - Inferring the Morphology of the Galactic Center Excess with Gaussian Processes [0.3276793654637396]
フレキシブルで非パラメトリックな機械学習モデル -- Gaussian Process (GP) -- を用いて、Galactic Center Excessを記述する。
拡散ガンマ線エミッションモデリングに伴う適合の系統的不確かさを定量化する。
以上の結果から,GCEの恒星膨らみやNFW様成分の物理的解釈は,仮定された形態に非常に敏感であることが示唆された。
論文 参考訳(メタデータ) (2024-10-28T18:00:00Z) - Frozen-DETR: Enhancing DETR with Image Understanding from Frozen Foundation Models [47.18069715855738]
近年のビジョン基礎モデルでは、普遍的な表現を抽出し、様々なタスクにおいて印象的な能力を示すことができる。
凍結基礎モデルは, 物体検出のための事前訓練を受けなくても, 汎用的特徴増強器として利用できることを示す。
論文 参考訳(メタデータ) (2024-10-25T15:38:24Z) - First Place Solution to the ECCV 2024 BRAVO Challenge: Evaluating Robustness of Vision Foundation Models for Semantic Segmentation [1.8570591025615457]
我々はECCV 2024 BRAVO Challengeの第1位となるソリューションを提示する。
モデルはCityscapesでトレーニングされ、その堅牢性はいくつかのアウト・オブ・ディストリビューションデータセットで評価される。
このアプローチは、より複雑な既存のアプローチよりも優れており、チャレンジにおいて第一位を達成しています。
論文 参考訳(メタデータ) (2024-09-25T16:15:06Z) - Enhancing Novel Object Detection via Cooperative Foundational Models [68.93124785575739]
本稿では,既存のクローズドセット検出器をオープンセット検出器に変換する新しい手法を提案する。
私たちは、新しいクラスに対して7.2$ textAP_50 のマージンで現在の最先端を越えています。
論文 参考訳(メタデータ) (2023-11-19T17:28:28Z) - NICE: CVPR 2023 Challenge on Zero-shot Image Captioning [149.28330263581012]
NICEプロジェクトは、堅牢な画像キャプションモデルを開発するためにコンピュータビジョンコミュニティに挑戦するために設計されている。
レポートには、新たに提案されたNICEデータセット、評価方法、課題結果、トップレベルのエントリの技術的な詳細などが含まれている。
論文 参考訳(メタデータ) (2023-09-05T05:32:19Z) - Zero-Shot Anomaly Detection with Pre-trained Segmentation Models [2.9322869014189985]
本稿では,視覚異常・ノベルティ検出(VAND)2023チャレンジのゼロショットトラックについて概説する。
WINCLIPフレームワークの性能に基づいて、ゼロショットセグメンテーションモデルを統合することにより、システムのローカライゼーション能力を向上することを目指している。
パイプラインは外部データや情報を必要としないため、新たなデータセットに直接適用することが可能です。
論文 参考訳(メタデータ) (2023-06-15T16:43:07Z) - 2nd Place Winning Solution for the CVPR2023 Visual Anomaly and Novelty
Detection Challenge: Multimodal Prompting for Data-centric Anomaly Detection [10.682758791557436]
本稿では,CVPR2023 Visual Anomaly and Novelty Detection (VAND) の課題に対して,Segment Any Anomaly チームが勝利したソリューションを紹介した。
マルチモーダルプロンプトを用いたゼロショット異常セグメンテーションのための新しいフレームワーク、すなわちセグメンツ・アノマリー + (SAA$+$) を提案する。
CVPR2023 VANで勝利したソリューションのコードを公開します。
論文 参考訳(メタデータ) (2023-06-15T11:49:44Z) - Fine-Grained Hard Negative Mining: Generalizing Mitosis Detection with a
Fifth of the MIDOG 2022 Dataset [1.2183405753834562]
ミトーシス領域一般化チャレンジ2022(MIDOG)の深層学習ソリューションについて述べる。
我々のアプローチは、アグレッシブデータ拡張を用いた回転不変深層学習モデルの訓練である。
我々のモデルアンサンブルは、自動評価後の最終テストセットで.697のF1スコアを達成した。
論文 参考訳(メタデータ) (2023-01-03T13:06:44Z) - Two-Stream Consensus Network: Submission to HACS Challenge 2021
Weakly-Supervised Learning Track [78.64815984927425]
弱い監督による時間的行動ローカライゼーションの目標は、ビデオの興味ある動作を時間的に特定し、分類することである。
この課題では,2ストリームコンセンサスネットワーク(TSCN)を主要なフレームワークとして採用しています。
この課題では,本手法が今後の学術研究のベースラインとなることを期待して,第2位にランクインした。
論文 参考訳(メタデータ) (2021-06-21T03:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。