論文の概要: Benchmarking Image Embeddings for E-Commerce: Evaluating Off-the Shelf Foundation Models, Fine-Tuning Strategies and Practical Trade-offs
- arxiv url: http://arxiv.org/abs/2504.07567v1
- Date: Thu, 10 Apr 2025 08:57:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:23:50.248279
- Title: Benchmarking Image Embeddings for E-Commerce: Evaluating Off-the Shelf Foundation Models, Fine-Tuning Strategies and Practical Trade-offs
- Title(参考訳): 電子商取引のためのイメージ埋め込みのベンチマーク:オフザシェルフファンデーションモデル、ファインチューニング戦略、実践的トレードオフの評価
- Authors: Urszula Czerwinska, Cenk Bircanoglu, Jeremy Chamoux,
- Abstract要約: 我々の研究は、教師付き、自己監督型、およびテキストイメージによるコントラスト学習を通じて訓練された、事前訓練された畳み込みモデルとトランスフォーマーモデルの埋め込みにまたがる。
ファッション、消費者製品、車、食品、小売の6つの異なるEコマースデータセットに基づいて、完全な微調整と転写学習を評価する。
テキストイメージと自己教師型埋め込みは、トレーニングの少ないパフォーマンスにマッチする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We benchmark foundation models image embeddings for classification and retrieval in e-Commerce, evaluating their suitability for real-world applications. Our study spans embeddings from pre-trained convolutional and transformer models trained via supervised, self-supervised, and text-image contrastive learning. We assess full fine-tuning and transfer learning (top-tuning) on six diverse e-Commerce datasets: fashion, consumer goods, cars, food, and retail. Results show full fine-tuning consistently performs well, while text-image and self-supervised embeddings can match its performance with less training. While supervised embeddings remain stable across architectures, SSL and contrastive embeddings vary significantly, often benefiting from top-tuning. Top-tuning emerges as an efficient alternative to full fine-tuning, reducing computational costs. We also explore cross-tuning, noting its impact depends on dataset characteristics. Our findings offer practical guidelines for embedding selection and fine-tuning strategies, balancing efficiency and performance.
- Abstract(参考訳): 我々は,電子商取引における分類と検索のためのイメージ埋め込みをベンチマークし,実世界のアプリケーションに適合する可能性を評価する。
我々の研究は、教師付き、自己監督型、およびテキストイメージによるコントラスト学習を通じて訓練された、事前訓練された畳み込みモデルとトランスフォーマーモデルの埋め込みにまたがる。
ファッション、消費者製品、車、食品、小売の6つの異なるEコマースデータセットに基づいて、完全な微調整と転送学習(トップチューニング)を評価します。
テキストイメージと自己教師型埋め込みは、トレーニングの少ないパフォーマンスにマッチする。
監視された埋め込みはアーキテクチャ全体で安定しているが、SSLとコントラストの埋め込みは大きな違いがあり、しばしばトップチューニングの恩恵を受ける。
トップチューニングは完全な微調整の代替として現れ、計算コストを削減している。
クロスチューニングについても検討し、その影響はデータセットの特性に依存することに注意する。
本研究は, 組込み選択と微調整戦略, 効率と性能のバランスに関する実践的ガイドラインを提供する。
関連論文リスト
- Contrastive-Adversarial and Diffusion: Exploring pre-training and fine-tuning strategies for sulcal identification [3.0398616939692777]
対人学習、コントラスト学習、拡散認知学習、通常の再構成学習といった技術が標準となっている。
この研究は、ニューラルネットワークの学習プロセスを強化するために、事前学習技術と微調整戦略の利点を解明することを目的としている。
論文 参考訳(メタデータ) (2024-05-29T15:44:51Z) - DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - Step-On-Feet Tuning: Scaling Self-Alignment of LLMs via Bootstrapping [53.454408491386886]
自己アライメントのブートストラップは、シングルラウンドアプローチをはるかに上回る。
モデルが継続的に強化した複数ショット機能を活用してゼロまたはワンショットのパフォーマンスを向上するステップ・オン・フィート・チューニング(SOFT)を提案する。
簡単な学習法に基づいて、自己アライメントの性能をさらに向上させるSOFT+を提案する。
論文 参考訳(メタデータ) (2024-02-12T12:30:42Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - HUB: Guiding Learned Optimizers with Continuous Prompt Tuning [45.662334160254176]
学習はメタ学習の重要な要素である。
スケーラブルな学習の最近の進歩は、様々なタスクにおいて手作業よりも優れたパフォーマンスを示している。
本稿では,スケーラブルな学習における一般化問題に対処するため,ハイブリッド更新ベース(HUB)最適化手法を提案する。
論文 参考訳(メタデータ) (2023-05-26T11:08:20Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。