論文の概要: FashionCLIP: Connecting Language and Images for Product Representations
- arxiv url: http://arxiv.org/abs/2204.03972v2
- Date: Mon, 11 Apr 2022 16:41:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 11:25:38.242920
- Title: FashionCLIP: Connecting Language and Images for Product Representations
- Title(参考訳): FashionCLIP: 製品表現のための言語と画像の接続
- Authors: Patrick John Chia, Giuseppe Attanasio, Federico Bianchi, Silvia
Terragni, Ana Rita Magalh\~aes, Diogo Goncalves, Ciro Greco, Jacopo Tagliabue
- Abstract要約: ファッション業界におけるCLIPライクなモデルであるFashionCLIPをトレーニングするために、コントラスト学習の最近の発展を基盤にしています。
検索、分類、接地機能を示し、我々のモデルとコードをコミュニティにリリースする。
- 参考スコア(独自算出の注目度): 15.9912684308682
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The steady rise of online shopping goes hand in hand with the development of
increasingly complex ML and NLP models. While most use cases are cast as
specialized supervised learning problems, we argue that practitioners would
greatly benefit from more transferable representations of products. In this
work, we build on recent developments in contrastive learning to train
FashionCLIP, a CLIP-like model for the fashion industry. We showcase its
capabilities for retrieval, classification and grounding, and release our model
and code to the community.
- Abstract(参考訳): オンラインショッピングの着実に増加は、ますます複雑なMLとNLPモデルの開発と相まって進んでいる。
ほとんどのユースケースは専門的な教師付き学習問題としてキャストされていますが、実践者は製品のより転送可能な表現から大きな恩恵を受けるでしょう。
本研究では,ファッション業界におけるCLIPライクなモデルであるFashionCLIPをトレーニングするための,コントラスト学習の最近の発展の上に構築する。
検索、分類、接地機能を示し、我々のモデルとコードをコミュニティにリリースする。
関連論文リスト
- LLAVADI: What Matters For Multimodal Large Language Models Distillation [77.73964744238519]
本研究では,新しい効率的なモデル構造を提案するのではなく,スクラッチから小規模MLLMを訓練する。
本研究は, 知識蒸留プロセスにおける学習戦略, モデル選択, 蒸留アルゴリズムに関するものである。
異なるベンチマークと適切な戦略を評価することで、2.7Bの小型モデルでも7Bまたは13Bのパラメータを持つ大型モデルと同等に動作することができる。
論文 参考訳(メタデータ) (2024-07-28T06:10:47Z) - Automatic Generation of Fashion Images using Prompting in Generative Machine Learning Models [1.8817715864806608]
本研究では、2つの異なる大言語モデルと、ファッション画像作成のための安定拡散モデルを用いて、カスタマイズされたファッション記述を生成する手法について検討する。
AI駆動のファッションクリエイティビティにおける適応性を強調して、ゼロショットや少数ショット学習といったテクニックの促進に重点を置いています。
評価は、CLIPscoreのような定量的メトリクスと質的な人間の判断を組み合わせることで、創造性、コヒーレンス、さまざまなスタイルの美的魅力を強調します。
論文 参考訳(メタデータ) (2024-07-20T17:37:51Z) - Mining Frequent Structures in Conceptual Models [2.841785306638839]
本稿では,概念モデリング言語における頻繁な構造発見問題に対する一般的なアプローチを提案する。
我々は,頻繁な部分グラフマイニングアルゴリズムとグラフ操作手法を組み合わせる。
主な目的は、言語エンジニアのためのサポート施設を提供することである。
論文 参考訳(メタデータ) (2024-06-11T10:24:02Z) - FashionReGen: LLM-Empowered Fashion Report Generation [61.84580616045145]
先進大言語モデル(LLM)に基づく知的ファッション分析・報告システムを提案する。
具体的には、いくつかの重要な手順を備えた効果的なキャットウォーク分析に基づくFashionReGenの提供を試みる。
また、他の領域における工業的重要性を持つより高度なタスクの探索にも刺激を与えている。
論文 参考訳(メタデータ) (2024-03-11T12:29:35Z) - Continual Learning for Large Language Models: A Survey [95.79977915131145]
大規模言語モデル(LLM)は、大規模なトレーニングコストが高いため、頻繁な再トレーニングには適さない。
本稿では,LLMの連続学習に関する最近の研究について述べる。
論文 参考訳(メタデータ) (2024-02-02T12:34:09Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Can AI Moderate Online Communities? [0.0]
オープンアクセス生成事前学習型トランスフォーマーモデル(GPT)をOpenAIから利用して,大規模言語モデル(LLM)を訓練する。
予備的な知見は、適切に訓練された場合、LLMはアクターの意図を識別し、有害なコメントをモデレートし、肯定的な貢献を得られることを示唆している。
我々は、コンテンツオンラインモデレーションにおける生成AIの適用と、分散化された匿名コミュニティにおける文化の管理に関する、迅速な開発フレームワークを用いて、情報システム(IS)の談話に貢献する。
論文 参考訳(メタデータ) (2023-06-08T11:45:44Z) - Panoramic Learning with A Standardized Machine Learning Formalism [116.34627789412102]
本稿では,多様なMLアルゴリズムの統一的な理解を提供する学習目的の標準化された方程式を提案する。
また、新しいMLソリューションのメカニック設計のガイダンスも提供し、すべての経験を持つパノラマ学習に向けた有望な手段として機能する。
論文 参考訳(メタデータ) (2021-08-17T17:44:38Z) - Knowledge Enhanced Neural Fashion Trend Forecasting [81.2083786318119]
本研究は,特定のユーザグループを対象とした,きめ細かいファッション要素の傾向の調査に焦点をあてる。
まず、Instagramから収集した大規模なファッショントレンドデータセット(FIT)に、時系列のファッション要素の記録とユーザー情報を抽出した。
本稿では,時系列データモデリングにおける深部再帰型ニューラルネットワークの機能を利用する知識強化型ニューラルネットワークモデル(KERN)を提案する。
論文 参考訳(メタデータ) (2020-05-07T07:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。