論文の概要: Integrating Domain Knowledge into Large Language Models for Enhanced Fashion Recommendations
- arxiv url: http://arxiv.org/abs/2502.15696v1
- Date: Fri, 03 Jan 2025 21:49:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 05:53:45.876721
- Title: Integrating Domain Knowledge into Large Language Models for Enhanced Fashion Recommendations
- Title(参考訳): ファッションリコメンデーション強化のための大規模言語モデルへのドメイン知識の統合
- Authors: Zhan Shi, Shanglin Yang,
- Abstract要約: 本稿では,ファッションアドバイスをパーソナライズする能力を高めるために,自動プロンプト生成トレーニング戦略を利用するFashion Large Language Model(FLLM)を紹介する。
提案手法は, 精度, 解釈可能性, 数発の学習能力において, 既存のモデルを超えていることを示す。
- 参考スコア(独自算出の注目度): 5.251304651964696
- License:
- Abstract: Fashion, deeply rooted in sociocultural dynamics, evolves as individuals emulate styles popularized by influencers and iconic figures. In the quest to replicate such refined tastes using artificial intelligence, traditional fashion ensemble methods have primarily used supervised learning to imitate the decisions of style icons, which falter when faced with distribution shifts, leading to style replication discrepancies triggered by slight variations in input. Meanwhile, large language models (LLMs) have become prominent across various sectors, recognized for their user-friendly interfaces, strong conversational skills, and advanced reasoning capabilities. To address these challenges, we introduce the Fashion Large Language Model (FLLM), which employs auto-prompt generation training strategies to enhance its capacity for delivering personalized fashion advice while retaining essential domain knowledge. Additionally, by integrating a retrieval augmentation technique during inference, the model can better adjust to individual preferences. Our results show that this approach surpasses existing models in accuracy, interpretability, and few-shot learning capabilities.
- Abstract(参考訳): ファシオンは社会文化的ダイナミクスに深く根ざし、インフルエンサーや象徴的な人物によって広められたスタイルを個人が模倣するにつれて進化する。
このような洗練された味を人工知能を用いて再現しようとする中で、伝統的なファッションアンサンブル法は、主にスタイルアイコンの決定を模倣するために教師付き学習を用いてきた。
一方、大規模言語モデル(LLM)は、ユーザフレンドリーなインターフェース、強力な会話スキル、高度な推論能力で認識され、様々な分野において顕著になっている。
これらの課題に対処するため、我々はFashion Large Language Model (FLLM)を導入し、ドメイン知識を維持しつつパーソナライズされたファッションアドバイスを提供する能力を高めるために、自動プロンプト生成トレーニング戦略を採用した。
さらに、推論中に検索拡張技術を統合することで、モデルは個人の好みに合わせてより良く調整できる。
提案手法は, 精度, 解釈可能性, 数発の学習能力において, 既存のモデルを超えていることを示す。
関連論文リスト
- Cross-Cultural Fashion Design via Interactive Large Language Models and Diffusion Models [0.0]
ファッションコンテンツ生成は、人工知能とクリエイティブデザインの交差点における新興分野である。
既存の手法は、文化的バイアス、限られたスケーラビリティ、テキストプロンプトと生成されたビジュアルの整合性に苦しむ。
本稿では,Large Language Models (LLMs) とLatent Diffusion Models (LDMs) を統合し,これらの課題に対処する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-26T15:57:16Z) - Automatic Generation of Fashion Images using Prompting in Generative Machine Learning Models [1.8817715864806608]
本研究では、2つの異なる大言語モデルと、ファッション画像作成のための安定拡散モデルを用いて、カスタマイズされたファッション記述を生成する手法について検討する。
AI駆動のファッションクリエイティビティにおける適応性を強調して、ゼロショットや少数ショット学習といったテクニックの促進に重点を置いています。
評価は、CLIPscoreのような定量的メトリクスと質的な人間の判断を組み合わせることで、創造性、コヒーレンス、さまざまなスタイルの美的魅力を強調します。
論文 参考訳(メタデータ) (2024-07-20T17:37:51Z) - Using Multimodal Foundation Models and Clustering for Improved Style Ambiguity Loss [0.0]
我々は、分類器やラベル付きデータセットを訓練する必要のない創造性を近似するために使用される、スタイルあいまいさトレーニングの新たな形態を探求する。
創造性と斬新さを保ちながら、人間の判断のための自動測定値に基づいて従来の手法を改善した新たな手法を見いだす。
論文 参考訳(メタデータ) (2024-06-20T15:43:13Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - Fine-Tune Language Models as Multi-Modal Differential Equation Solvers [14.181842691371935]
本稿では,コンテキスト内演算子の学習をマルチモーダルパラダイムに変換する。
特に,近年の大規模言語モデルの成功からインスピレーションを得て,演算子に関する人間の知識を統合するために「カプセル」の使用を提案する。
論文 参考訳(メタデータ) (2023-08-09T16:44:25Z) - When Large Language Models Meet Personalization: Perspectives of
Challenges and Opportunities [60.5609416496429]
大規模言語モデルの能力は劇的に改善されている。
このような大きな飛躍的なAI能力は、パーソナライゼーションの実施方法のパターンを変えるだろう。
大規模言語モデルを汎用インターフェースとして活用することにより、パーソナライズシステムはユーザ要求を計画にコンパイルすることができる。
論文 参考訳(メタデータ) (2023-07-31T02:48:56Z) - FashionSAP: Symbols and Attributes Prompt for Fine-grained Fashion
Vision-Language Pre-training [12.652002299515864]
ファッションシンボルと属性プロンプト(FashionSAP)に基づく、きめ細かいファッションビジョン言語事前学習法を提案する。
まず,新しい抽象的なファッション概念層であるファッションシンボルを,異なるファッションアイテムを表現するために提案する。
次に、モデルにファッションアイテムの特定の属性を明示的に学習させる属性プロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-04-11T08:20:17Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Semi-supervised Formality Style Transfer using Language Model
Discriminator and Mutual Information Maximization [52.867459839641526]
フォーマル・スタイル・トランスファー(英: Formality style transfer)とは、非公式な文を文法的に正しい形式文に変換するタスクである。
本稿では,言語モデルに基づく識別器を用いて,文が形式的である確率を最大化する半教師付き形式表現スタイル転送モデルを提案する。
実験の結果,我々のモデルは,自動計測と人的判断の両面で,従来の最先端のベースラインを著しく上回りました。
論文 参考訳(メタデータ) (2020-10-10T21:05:56Z) - Knowledge Enhanced Neural Fashion Trend Forecasting [81.2083786318119]
本研究は,特定のユーザグループを対象とした,きめ細かいファッション要素の傾向の調査に焦点をあてる。
まず、Instagramから収集した大規模なファッショントレンドデータセット(FIT)に、時系列のファッション要素の記録とユーザー情報を抽出した。
本稿では,時系列データモデリングにおける深部再帰型ニューラルネットワークの機能を利用する知識強化型ニューラルネットワークモデル(KERN)を提案する。
論文 参考訳(メタデータ) (2020-05-07T07:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。