論文の概要: OD3: Optimization-free Dataset Distillation for Object Detection
- arxiv url: http://arxiv.org/abs/2506.01942v1
- Date: Mon, 02 Jun 2025 17:56:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.697011
- Title: OD3: Optimization-free Dataset Distillation for Object Detection
- Title(参考訳): OD3:オブジェクト検出のための最適化不要なデータセット蒸留
- Authors: Salwa K. Al Khatib, Ahmed ElHagry, Shitong Shao, Zhiqiang Shen,
- Abstract要約: 本稿では,オブジェクト検出に特化して設計された新しい最適化フリーなデータ蒸留フレームワークOD3を紹介する。
提案手法は,まず,対象インスタンスを適切な位置に基づいて反復的に合成画像に配置する候補選択プロセスと,事前学習したオブザーバモデルを用いて,低信頼度オブジェクトを除去する候補スクリーニングプロセスの2段階を含む。
従来のデータセット蒸留法と従来のコアセット選択法を比較検討した結果,OD3 は精度が向上し,COCO mAP50 の圧縮比が14%以上向上し,新たな最先端結果が得られた。
- 参考スコア(独自算出の注目度): 23.09565778268426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training large neural networks on large-scale datasets requires substantial computational resources, particularly for dense prediction tasks such as object detection. Although dataset distillation (DD) has been proposed to alleviate these demands by synthesizing compact datasets from larger ones, most existing work focuses solely on image classification, leaving the more complex detection setting largely unexplored. In this paper, we introduce OD3, a novel optimization-free data distillation framework specifically designed for object detection. Our approach involves two stages: first, a candidate selection process in which object instances are iteratively placed in synthesized images based on their suitable locations, and second, a candidate screening process using a pre-trained observer model to remove low-confidence objects. We perform our data synthesis framework on MS COCO and PASCAL VOC, two popular detection datasets, with compression ratios ranging from 0.25% to 5%. Compared to the prior solely existing dataset distillation method on detection and conventional core set selection methods, OD3 delivers superior accuracy, establishes new state-of-the-art results, surpassing prior best method by more than 14% on COCO mAP50 at a compression ratio of 1.0%. Code and condensed datasets are available at: https://github.com/VILA-Lab/OD3.
- Abstract(参考訳): 大規模データセット上で大規模なニューラルネットワークをトレーニングするには、特にオブジェクト検出などの高密度な予測タスクにおいて、かなりの計算資源が必要となる。
データセット蒸留(DD)は、より大規模なデータセットからコンパクトなデータセットを合成することでこれらの要求を緩和するために提案されているが、既存の研究の多くは画像分類に重点を置いており、より複雑な検出設定はほとんど探索されていない。
本稿では,オブジェクト検出に特化して設計された新しい最適化フリーなデータ蒸留フレームワークOD3を紹介する。
提案手法は,まず,対象インスタンスを適切な位置に基づいて反復的に合成画像に配置する候補選択プロセスと,事前学習したオブザーバモデルを用いて,低信頼度オブジェクトを除去する候補スクリーニングプロセスの2段階を含む。
我々は2つの一般的な検出データセットであるMS COCOとPASCAL VOC上でデータ合成フレームワークを実行し、圧縮比は0.25%から5%である。
従来の従来のデータセット蒸留法や従来のコアセット抽出法と比較して,OD3は精度が優れ,COCO mAP50の圧縮比1.0%で従来の最良値を14%以上上回った。
コードと凝縮されたデータセットは、https://github.com/VILA-Lab/OD3.comで入手できる。
関連論文リスト
- Dataset Distillation as Pushforward Optimal Quantization [1.039189397779466]
そこで本稿では,ImageNet-1Kデータセットの性能向上を目的とした,最先端データ蒸留法D4Mの簡易拡張を提案する。
エンコーダ・デコーダ構造を組み込んだ場合、実験的に成功した不整合法を最適な量子化問題として再定義できることを実証する。
特に, 既存の不整合データセット蒸留法を古典的最適量子化法とワッサーシュタインバリセンタ問題にリンクし, 拡散型生成前処理のための蒸留データセットの整合性を示す。
論文 参考訳(メタデータ) (2025-01-13T20:41:52Z) - Prioritize Alignment in Dataset Distillation [27.71563788300818]
既存の方法はエージェントモデルを使用して、ターゲットデータセットから情報を抽出し、蒸留データセットに埋め込む。
既存の手法では,情報抽出と埋め込みの両方の段階において,不整合情報を導入している。
本稿では、以下の2つの視点から情報を整列するデータセット蒸留(PAD)における優先順位付けアライメントを提案する。
論文 参考訳(メタデータ) (2024-08-06T17:07:28Z) - Dataset Distillation via Adversarial Prediction Matching [24.487950991247764]
本稿では,データセットの蒸留問題を効率的に解くための逆フレームワークを提案する。
提案手法は,オリジナルデータセットの10%程度の大きさの合成データセットを生成できるが,全オリジナルデータセットでトレーニングしたモデルのテスト精度の94%を平均で達成できる。
論文 参考訳(メタデータ) (2023-12-14T13:19:33Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - KECOR: Kernel Coding Rate Maximization for Active 3D Object Detection [48.66703222700795]
我々は、ラベルの取得に最も有用なポイントクラウドを特定するために、新しいカーネル戦略を利用する。
1段目(SECOND)と2段目(SECOND)の両方に対応するため、アノテーションに選択した境界ボックスの総数と検出性能のトレードオフをよく組み込んだ分類エントロピー接点を組み込んだ。
その結果,ボックスレベルのアノテーションのコストは約44%,計算時間は26%削減された。
論文 参考訳(メタデータ) (2023-07-16T04:27:03Z) - Generalizing Dataset Distillation via Deep Generative Prior [75.9031209877651]
本稿では,データセット全体の知識をいくつかの合成画像に抽出することを提案する。
このアイデアは、学習アルゴリズムにトレーニングデータとして与えられる少数の合成データポイントを合成し、結果として元のデータに基づいてトレーニングされたデータを近似するモデルを構築する。
生成モデルの潜在空間における複数の中間特徴ベクトルに多数の画像を蒸留する新しい最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-02T17:59:31Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。