論文の概要: Lost Your Style? Navigating with Semantic-Level Approach for
Text-to-Outfit Retrieval
- arxiv url: http://arxiv.org/abs/2311.02122v1
- Date: Fri, 3 Nov 2023 07:23:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 19:23:16.690297
- Title: Lost Your Style? Navigating with Semantic-Level Approach for
Text-to-Outfit Retrieval
- Title(参考訳): スタイルをなくしたの?
テキスト・トゥ・アウトフィット検索のための意味レベルアプローチによるナビゲーション
- Authors: Junkyu Jang, Eugene Hwang, Sung-Hyuk Park
- Abstract要約: ファッションレコメンデーションの基盤となるアプローチとして,テキスト・ツー・アウトフィット検索タスクを導入する。
我々のモデルは3つのセマンティックレベル、スタイル、服装で考案され、各レベルがデータを段階的に集約し、一貫性のある服装勧告を形成する。
メリーランド・ポリボアとポリボア・アウトフィットのデータセットを用いて,本手法はテキストビデオ検索タスクにおける最先端モデルよりも有意に優れていた。
- 参考スコア(独自算出の注目度): 2.07180164747172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fashion stylists have historically bridged the gap between consumers' desires
and perfect outfits, which involve intricate combinations of colors, patterns,
and materials. Although recent advancements in fashion recommendation systems
have made strides in outfit compatibility prediction and complementary item
retrieval, these systems rely heavily on pre-selected customer choices.
Therefore, we introduce a groundbreaking approach to fashion recommendations:
text-to-outfit retrieval task that generates a complete outfit set based solely
on textual descriptions given by users. Our model is devised at three semantic
levels-item, style, and outfit-where each level progressively aggregates data
to form a coherent outfit recommendation based on textual input. Here, we
leverage strategies similar to those in the contrastive language-image
pretraining model to address the intricate-style matrix within the outfit sets.
Using the Maryland Polyvore and Polyvore Outfit datasets, our approach
significantly outperformed state-of-the-art models in text-video retrieval
tasks, solidifying its effectiveness in the fashion recommendation domain. This
research not only pioneers a new facet of fashion recommendation systems, but
also introduces a method that captures the essence of individual style
preferences through textual descriptions.
- Abstract(参考訳): ファッションスタイリストは歴史的に、消費者の欲望と完璧な衣装の間のギャップを橋渡しし、色、パターン、素材の複雑な組み合わせを含んでいる。
近年,ファッションレコメンデーションシステムの進歩により,服飾互換性の予測や補完的なアイテム検索が進んでいるが,これらのシステムは事前に選択された顧客選択に大きく依存している。
そこで,ファッションレコメンデーションに対する画期的なアプローチとして,ユーザによるテキスト記述のみに基づく完全な衣装セットを生成するテキスト・ツー・アウトフィット検索タスクを提案する。
本モデルでは,テキスト入力に基づいて,各レベルが段階的にデータを集約し,一貫性のある服飾レコメンデーションを形成する3つのセマンティックレベル,スタイル,衣装を考案した。
ここでは,コントラスト型言語イメージプリトレーニングモデルと類似した戦略を用いて,衣装セット内の複雑な行列を扱う。
メリーランド・ポリボアとポリボア・アチュームのデータセットを用いて,本手法は,テキスト・ビデオ検索タスクにおける最先端モデルを大幅に上回り,ファッションレコメンデーション領域においてその効果を確固たるものにした。
この研究はファッションレコメンデーションシステムの新たな側面を開拓するだけでなく、テキスト記述による個人のスタイル選好の本質を捉えた手法も導入している。
関連論文リスト
- Decoding Style: Efficient Fine-Tuning of LLMs for Image-Guided Outfit Recommendation with Preference [4.667044856219814]
本稿では,大規模言語モデル(LLM)の表現力を利用した,個人化された衣装推薦手法を提案する。
MLLM(Multimodal Large Language Model)を用いた画像キャプションによる項目記述の視覚的・テキスト的ギャップを橋渡しする。
このフレームワークは、Polyvoreデータセットで評価され、その効果を2つの重要なタスク、すなわちFill-in-the-blankと補完的なアイテム検索で実証する。
論文 参考訳(メタデータ) (2024-09-18T17:15:06Z) - Social Media Fashion Knowledge Extraction as Captioning [61.41631195195498]
ソーシャルメディアにおけるファッション知識抽出の課題について検討する。
ファッション知識を文変換法を用いて自然言語キャプションに変換する。
このフレームワークは,ソーシャルメディア投稿から直接文ベースのファッション知識を生成することを目的としている。
論文 参考訳(メタデータ) (2023-09-28T09:07:48Z) - FaD-VLP: Fashion Vision-and-Language Pre-training towards Unified
Retrieval and Captioning [66.38951790650887]
ファッション分野におけるマルチモーダルタスクは、eコマースにとって大きな可能性を秘めている。
本稿では,ファッションとテクストのペアから構築した弱教師付き三つ組に基づく,ファッション特有の事前学習フレームワークを提案する。
3重項に基づくタスクは、標準的なマルチモーダル事前学習タスクに有効な追加であることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:01:19Z) - Recommendation of Compatible Outfits Conditioned on Style [22.03522251199042]
この作品は、実生活で身につけるようなスタイルやテーマを前提とした衣装を作り出すことを目的としている。
我々は、スムーズなラテント空間で衣装スタイルをレンダリングする新しいスタイルエンコーダネットワークを使用している。
論文 参考訳(メタデータ) (2022-03-30T09:23:32Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Semi-Supervised Visual Representation Learning for Fashion Compatibility [17.893627646979038]
そこで本研究では,フライ時に擬陽性で擬陰性な衣服を作成できる半教師付き学習手法を提案する。
トレーニングバッチ内の各ラベル付き服について、ラベル付服の各項目とラベル付品とをマッチングすることにより、擬似アウトフィットを得る。
我々はPolyvore、Polyvore-D、新たに作成した大規模Fashion Outfitsデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-16T15:35:38Z) - Garment Recommendation with Memory Augmented Neural Networks [28.93484698024234]
記憶増強ニューラルネットワーク(MANN)を活用した、トップスとボトムスという異なる衣料品をペアリングする衣料推奨システムを提案する。
推奨事項を洗練するために、Matrix Factorizationを介してユーザーの好みを含める。
オンラインファッションコミュニティから収集したデータセット iqon3000 について実験を行い,その成果を報告する。
論文 参考訳(メタデータ) (2020-12-11T09:13:14Z) - Addressing the Cold-Start Problem in Outfit Recommendation Using Visual
Preference Modelling [51.147871738838305]
本稿では,新しい視覚的嗜好モデリング手法を活用することで,新規ユーザに対するコールドスタート問題に対処する。
機能重み付けクラスタリングによるアプローチの活用を実演し、時事指向の衣装レコメンデーションをパーソナライズする。
論文 参考訳(メタデータ) (2020-08-04T10:07:09Z) - Personalized Fashion Recommendation from Personal Social Media Data: An
Item-to-Set Metric Learning Approach [71.63618051547144]
ソーシャルメディアデータからパーソナライズされたファッションレコメンデーションの問題について検討する。
本稿では,ユーザの過去のファッションアイテムと新しいファッションアイテムとの類似性を学習する,アイテムツーセットのメトリック学習フレームワークを提案する。
提案手法の有効性を検証するために,実世界のソーシャルメディアデータセットを収集する。
論文 参考訳(メタデータ) (2020-05-25T23:24:24Z) - Fashion Recommendation and Compatibility Prediction Using Relational
Network [18.13692056232815]
我々は、新しい互換性学習モデルを開発するための関係ネットワーク(RN)を開発する。
FashionRNは、任意の数のアイテムを任意の順序で、服全体の互換性を学習する。
我々はPolyvoreのウェブサイトから収集した49,740の服の大規模なデータセットを用いてモデルを評価した。
論文 参考訳(メタデータ) (2020-05-13T21:00:54Z) - Learning Diverse Fashion Collocation by Neural Graph Filtering [78.9188246136867]
本稿では,グラフニューラルネットワークを用いて,フレキシブルなファッションアイテムセットをモデル化する新しいファッションコロケーションフレームワークであるNeural Graph Filteringを提案する。
エッジベクトルに対称演算を適用することにより、このフレームワークは様々な入力/出力を許容し、それらの順序に不変である。
提案手法を,Polyvoreデータセット,Polyvore-Dデータセット,Amazon Fashionデータセットの3つの一般的なベンチマークで評価した。
論文 参考訳(メタデータ) (2020-03-11T16:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。