論文の概要: Condensing Action Segmentation Datasets via Generative Network Inversion
- arxiv url: http://arxiv.org/abs/2503.14112v1
- Date: Tue, 18 Mar 2025 10:29:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:15:51.654534
- Title: Condensing Action Segmentation Datasets via Generative Network Inversion
- Title(参考訳): 生成ネットワークインバージョンによるアクションセグメンテーションデータセットの凝縮
- Authors: Guodong Ding, Rongyu Chen, Angela Yao,
- Abstract要約: 本研究は、時間的アクションセグメンテーションに使用される手続き的ビデオデータセットに対する最初の凝縮アプローチを示す。
本稿では,データセットとネットワークのインバージョンから得られた生成的事前学習を利用して,データをコンパクトな潜在コードに変換する凝縮フレームワークを提案する。
標準ベンチマークによる評価は,TASデータセットの凝縮と競合性能の達成に一貫した有効性を示す。
- 参考スコア(独自算出の注目度): 37.78120420622088
- License:
- Abstract: This work presents the first condensation approach for procedural video datasets used in temporal action segmentation. We propose a condensation framework that leverages generative prior learned from the dataset and network inversion to condense data into compact latent codes with significant storage reduced across temporal and channel aspects. Orthogonally, we propose sampling diverse and representative action sequences to minimize video-wise redundancy. Our evaluation on standard benchmarks demonstrates consistent effectiveness in condensing TAS datasets and achieving competitive performances. Specifically, on the Breakfast dataset, our approach reduces storage by over 500$\times$ while retaining 83% of the performance compared to training with the full dataset. Furthermore, when applied to a downstream incremental learning task, it yields superior performance compared to the state-of-the-art.
- Abstract(参考訳): 本研究は、時間的アクションセグメンテーションに使用される手続き的ビデオデータセットに対する最初の凝縮アプローチを示す。
本稿では,データセットとネットワークのインバージョンから得られた生成的事前学習を活用して,時間的およびチャネル的側面において大幅なストレージを削減した,コンパクトな潜在コードにコンデンスデータを変換するコンデンスフレームワークを提案する。
直交的に、ビデオの冗長性を最小限に抑えるために、多様なアクションシーケンスと代表アクションシーケンスをサンプリングする。
標準ベンチマークによる評価は,TASデータセットの凝縮と競合性能の達成に一貫した有効性を示す。
具体的には、Breakfastデータセットでは、完全なデータセットでのトレーニングと比較して、パフォーマンスの83%を維持しながら、500$\times$以上のストレージを削減しています。
さらに、下流の漸進的学習タスクに適用すると、最先端技術よりも優れた性能が得られる。
関連論文リスト
- Enhancing Generalization via Sharpness-Aware Trajectory Matching for Dataset Condensation [37.77454972709646]
学習した合成データセットの一般化能力を高めるシャープネス認識軌道マッチング(SATM)を導入する。
我々の手法は数学的に十分サポートされており、制御可能な計算オーバーヘッドとともに実装が容易である。
論文 参考訳(メタデータ) (2025-02-03T22:30:06Z) - Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Coherent Temporal Synthesis for Incremental Action Segmentation [42.46228728930902]
本稿では、インクリメンタルなアクションセグメンテーションのためのビデオデータ再生手法を初めて検討する。
本稿では,個々のフレームを格納する代わりに生成モデルを用いて行動を表現するテンポラリ・コヒーレント・アクション・モデルを提案する。
Breakfastデータセットの10タスクのインクリメンタルセットアップでは,ベースラインと比較して最大22%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-03-10T06:07:06Z) - Data Augmentation for Traffic Classification [54.92823760790628]
Data Augmentation (DA) はコンピュータビジョン(CV)と自然言語処理(NLP)に広く採用されている技術である。
DAはネットワークのコンテキスト、特にトラフィック分類(TC)タスクにおいて、牽引力を得るのに苦労しています。
論文 参考訳(メタデータ) (2024-01-19T15:25:09Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - DC-BENCH: Dataset Condensation Benchmark [79.18718490863908]
この研究は、データセットの凝縮に関する最初の大規模標準ベンチマークを提供する。
それは、凝縮法の生成可能性と有効性を包括的に反映する一連の評価から成り立っている。
ベンチマークライブラリは、将来の研究とアプリケーションを容易にするためにオープンソース化されている。
論文 参考訳(メタデータ) (2022-07-20T03:54:05Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - Dataset Condensation via Efficient Synthetic-Data Parameterization [40.56817483607132]
大量のデータを持つ機械学習は、膨大な計算コストと、トレーニングとチューニングのためのストレージの価格が伴う。
データセットの凝縮に関する最近の研究は、コンパクトなトレーニングデータセットを合成することで、そのような大量のデータへの依存を減らそうとしている。
本稿では,データ規則性を考慮した効率的なパラメータ化により,ストレージ予算に制限のある複数の合成データを生成する,新しい凝縮フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-30T09:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。