論文の概要: ReSpec: Relevance and Specificity Grounded Online Filtering for Learning on Video-Text Data Streams
- arxiv url: http://arxiv.org/abs/2504.14875v1
- Date: Mon, 21 Apr 2025 06:02:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 19:25:24.187817
- Title: ReSpec: Relevance and Specificity Grounded Online Filtering for Learning on Video-Text Data Streams
- Title(参考訳): ReSpec: ビデオテキストデータストリームによる学習のためのオンラインフィルタリングの妥当性と特異性
- Authors: Chris Dongjoo Kim, Jihwan Moon, Sangwoo Moon, Heeseung Yun, Sihaeng Lee, Aniruddha Kembhavi, Soonyoung Lee, Gunhee Kim, Sangho Lee, Christopher Clark,
- Abstract要約: ビデオテキストデータは、トレーニング中のストレージと計算の課題を示す。
ReSpec(Relevance and Specificity-based online filtering framework)を提案する。
ターゲットのタスクデータから参照ポイントを確立することで、ReSpecは受信したデータをリアルタイムでフィルタリングし、広範なストレージと計算の必要性をなくす。
- 参考スコア(独自算出の注目度): 57.080448177724264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid growth of video-text data presents challenges in storage and computation during training. Online learning, which processes streaming data in real-time, offers a promising solution to these issues while also allowing swift adaptations in scenarios demanding real-time responsiveness. One strategy to enhance the efficiency and effectiveness of learning involves identifying and prioritizing data that enhances performance on target downstream tasks. We propose Relevance and Specificity-based online filtering framework (ReSpec) that selects data based on four criteria: (i) modality alignment for clean data, (ii) task relevance for target focused data, (iii) specificity for informative and detailed data, and (iv) efficiency for low-latency processing. Relevance is determined by the probabilistic alignment of incoming data with downstream tasks, while specificity employs the distance to a root embedding representing the least specific data as an efficient proxy for informativeness. By establishing reference points from target task data, ReSpec filters incoming data in real-time, eliminating the need for extensive storage and compute. Evaluating on large-scale datasets WebVid2M and VideoCC3M, ReSpec attains state-of-the-art performance on five zeroshot video retrieval tasks, using as little as 5% of the data while incurring minimal compute. The source code is available at https://github.com/cdjkim/ReSpec.
- Abstract(参考訳): ビデオテキストデータの急速な成長は、トレーニング中のストレージと計算の課題を示す。
ストリーミングデータをリアルタイムで処理するオンライン学習は、これらの問題に対して有望な解決策を提供すると同時に、リアルタイムの応答性を必要とするシナリオにおける迅速な適応を可能にする。
学習の効率性と効率性を高めるための1つの戦略は、目標とする下流タスクのパフォーマンスを高めるデータの特定と優先順位付けである。
4つの基準に基づいてデータを選択するReSpec(Relevance and Specificity-based online filtering framework)を提案する。
(i)クリーンデータに対するモダリティアライメント
二 目標集中データに対するタスク関連性
三 情報及び詳細なデータの特異性、及び
(4)低遅延処理の効率化。
関連性は、入力データと下流タスクとの確率的アライメントによって決定される一方、特異性は、最も特定度の低いデータを表す根埋め込みまでの距離を情報性のための効率的なプロキシとして利用する。
ターゲットのタスクデータから参照ポイントを確立することで、ReSpecは受信したデータをリアルタイムでフィルタリングし、広範なストレージと計算の必要性をなくす。
大規模なデータセットであるWebVid2MとVideoCC3Mを評価することで、ReSpecは5つのゼロショットビデオ検索タスクで最先端のパフォーマンスを達成し、データの5%を最小限の計算で使用することができる。
ソースコードはhttps://github.com/cdjkim/ReSpecで入手できる。
関連論文リスト
- ZIP-FIT: Embedding-Free Data Selection via Compression-Based Alignment [13.303577263109858]
ZIP-FITは、gzip圧縮を使用して、潜在的なトレーニングデータとターゲットタスク分布のアライメントを測定するデータ選択フレームワークである。
ZIP-FIT選択データに基づいてトレーニングされたモデルは、ベースラインよりも85.1%高速なクロスエントロピー損失を達成する。
ZIP-FITは、小さく、よく整合したデータセットが、より大きながターゲットの少ないデータセットよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-10-23T18:01:06Z) - From Data Deluge to Data Curation: A Filtering-WoRA Paradigm for Efficient Text-based Person Search [30.88999109835329]
テキストベースの人物検索では、プライバシ保護と手動アノテーションの困難なタスクに対する懸念に対処するため、データ生成が主流となっている。
構築されたデータセット内のデータのサブセットのみが決定的な役割を果たすことを観察する。
我々は、この重要なデータサブセットを識別するためのフィルタリングアルゴリズムと、光微細チューニングのためのWoRA学習戦略を含む新しいフィルタリング-WoRAパラダイムを導入する。
論文 参考訳(メタデータ) (2024-04-16T05:29:14Z) - Scaling Laws for Data Filtering -- Data Curation cannot be Compute Agnostic [99.3682210827572]
ビジョン言語モデル(VLM)は、慎重にキュレートされたWebデータセット上で数千のGPU時間でトレーニングされる。
データキュレーション戦略は通常、トレーニングに利用可能な計算を知らないように開発されている。
ウェブデータの非均一性を考慮したニューラルスケーリング法則を導入する。
論文 参考訳(メタデータ) (2024-04-10T17:27:54Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - The Devil is in the Details: A Deep Dive into the Rabbit Hole of Data
Filtering [23.68112988933411]
本稿では,DataComp チャレンジに参加する際の学習と解決について述べる。
我々のフィルタリング戦略は, 単一モダリティフィルタリング, クロスモダリティフィルタリング, データ分散アライメントの3段階を含む。
提案手法は,3つのタスクの平均的なパフォーマンスに対して4%以上,ImageNetでは2%以上,DataComp論文のベストメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-09-27T19:10:43Z) - Data-Juicer: A One-Stop Data Processing System for Large Language Models [73.27731037450995]
データレシピは、大規模言語モデル(LLM)をトレーニングするための異なるソースからのデータの混合である。
我々はData-Juicerという新しいシステムを構築し、多様なデータレシピを効率的に生成できる。
Data-Juicerから派生したデータレシピは、最先端のLLMで顕著に改善されている。
論文 参考訳(メタデータ) (2023-09-05T08:22:07Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - STREAMLINE: Streaming Active Learning for Realistic Multi-Distributional
Settings [2.580765958706854]
STREAMLINEは、シナリオ駆動スライス不均衡を緩和する新しいストリーミングアクティブラーニングフレームワークである。
画像分類とオブジェクト検出タスクのための実世界のストリーミングシナリオ上でSTREAMLINEを評価する。
論文 参考訳(メタデータ) (2023-05-18T02:01:45Z) - METAM: Goal-Oriented Data Discovery [9.73435089036831]
METAMは目標指向のフレームワークで、下流タスクを候補データセットでクエリし、フィードバックループを形成して、発見と拡張プロセスを自動的に管理する。
我々はMETAMの理論的保証を示し、それらを幅広いタスクセットで実証的に示す。
論文 参考訳(メタデータ) (2023-04-18T15:42:25Z) - Data Selection for Language Models via Importance Resampling [90.9263039747723]
我々は、望まれるターゲット分布に合わせるために、大規模な未ラベルデータセットのサブセットを選択するという問題を形式化する。
我々は、LMデータ選択のために低次元で使用される古典的な重要度再サンプリング手法を拡張した。
DSIRフレームワークをhash n-gram機能でインスタンス化し、4.5時間で1億のドキュメントを選択できる。
論文 参考訳(メタデータ) (2023-02-06T23:57:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。