論文の概要: FashionCLIP: Connecting Language and Images for Product Representations
- arxiv url: http://arxiv.org/abs/2204.03972v1
- Date: Fri, 8 Apr 2022 10:01:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 13:41:28.051386
- Title: FashionCLIP: Connecting Language and Images for Product Representations
- Title(参考訳): FashionCLIP: 製品表現のための言語と画像の接続
- Authors: Patrick John Chia, Giuseppe Attanasio, Federico Bianchi, Silvia
Terragni, Ana Rita Magalh\~aes, Diogo Goncalves, Ciro Greco, Jacopo Tagliabue
- Abstract要約: ファッション業界におけるCLIPライクなモデルであるFashionCLIPをトレーニングするために、コントラスト学習の最近の発展を基盤にしています。
検索、分類、接地機能を示し、我々のモデルとコードをコミュニティにリリースする。
- 参考スコア(独自算出の注目度): 15.9912684308682
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The steady rise of online shopping goes hand in hand with the development of
increasingly complex ML and NLP models. While most use cases are cast as
specialized supervised learning problems, we argue that practitioners would
greatly benefit from more transferable representations of products. In this
work, we build on recent developments in contrastive learning to train
FashionCLIP, a CLIP-like model for the fashion industry. We showcase its
capabilities for retrieval, classification and grounding, and release our model
and code to the community.
- Abstract(参考訳): オンラインショッピングの着実に増加は、ますます複雑なMLとNLPモデルの開発と相まって進んでいる。
ほとんどのユースケースは専門的な教師付き学習問題としてキャストされていますが、実践者は製品のより転送可能な表現から大きな恩恵を受けるでしょう。
本研究では,ファッション業界におけるCLIPライクなモデルであるFashionCLIPをトレーニングするための,コントラスト学習の最近の発展の上に構築する。
検索、分類、接地機能を示し、我々のモデルとコードをコミュニティにリリースする。
関連論文リスト
- FashionReGen: LLM-Empowered Fashion Report Generation [61.84580616045145]
先進大言語モデル(LLM)に基づく知的ファッション分析・報告システムを提案する。
具体的には、いくつかの重要な手順を備えた効果的なキャットウォーク分析に基づくFashionReGenの提供を試みる。
また、他の領域における工業的重要性を持つより高度なタスクの探索にも刺激を与えている。
論文 参考訳(メタデータ) (2024-03-11T12:29:35Z) - Continual Learning for Large Language Models: A Survey [95.79977915131145]
大規模言語モデル(LLM)は、大規模なトレーニングコストが高いため、頻繁な再トレーニングには適さない。
本稿では,LLMの連続学習に関する最近の研究について述べる。
論文 参考訳(メタデータ) (2024-02-02T12:34:09Z) - Continual Learning with Pre-Trained Models: A Survey [66.49084129482239]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Understanding LLMs: A Comprehensive Overview from Training to Inference [52.70748499554532]
大規模言語モデルの低コストなトレーニングと展開は、将来の開発トレンドを表している。
トレーニングに関する議論には、データ前処理、トレーニングアーキテクチャ、事前トレーニングタスク、並列トレーニング、モデル微調整に関連する関連コンテンツなど、さまざまな側面が含まれている。
推論の面では、モデル圧縮、並列計算、メモリスケジューリング、構造最適化などのトピックを取り上げている。
論文 参考訳(メタデータ) (2024-01-04T02:43:57Z) - Improving Plasticity in Online Continual Learning via Collaborative
Learning [24.692058640897372]
我々は、新しい知識(すなわち、モデル可塑性)を取得するモデルの能力は、オンラインCLにおけるもう一つの課題であると主張している。
我々は、新しい概念を習得する際のモデル能力を改善するために、協調学習に基づく戦略である協調継続学習(CCL)を提案する。
論文 参考訳(メタデータ) (2023-12-01T14:06:28Z) - Can AI Moderate Online Communities? [0.0]
オープンアクセス生成事前学習型トランスフォーマーモデル(GPT)をOpenAIから利用して,大規模言語モデル(LLM)を訓練する。
予備的な知見は、適切に訓練された場合、LLMはアクターの意図を識別し、有害なコメントをモデレートし、肯定的な貢献を得られることを示唆している。
我々は、コンテンツオンラインモデレーションにおける生成AIの適用と、分散化された匿名コミュニティにおける文化の管理に関する、迅速な開発フレームワークを用いて、情報システム(IS)の談話に貢献する。
論文 参考訳(メタデータ) (2023-06-08T11:45:44Z) - Panoramic Learning with A Standardized Machine Learning Formalism [116.34627789412102]
本稿では,多様なMLアルゴリズムの統一的な理解を提供する学習目的の標準化された方程式を提案する。
また、新しいMLソリューションのメカニック設計のガイダンスも提供し、すべての経験を持つパノラマ学習に向けた有望な手段として機能する。
論文 参考訳(メタデータ) (2021-08-17T17:44:38Z) - Knowledge Enhanced Neural Fashion Trend Forecasting [81.2083786318119]
本研究は,特定のユーザグループを対象とした,きめ細かいファッション要素の傾向の調査に焦点をあてる。
まず、Instagramから収集した大規模なファッショントレンドデータセット(FIT)に、時系列のファッション要素の記録とユーザー情報を抽出した。
本稿では,時系列データモデリングにおける深部再帰型ニューラルネットワークの機能を利用する知識強化型ニューラルネットワークモデル(KERN)を提案する。
論文 参考訳(メタデータ) (2020-05-07T07:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。