論文の概要: Dif4FF: Leveraging Multimodal Diffusion Models and Graph Neural Networks for Accurate New Fashion Product Performance Forecasting
- arxiv url: http://arxiv.org/abs/2412.05566v1
- Date: Sat, 07 Dec 2024 07:03:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:57:01.349659
- Title: Dif4FF: Leveraging Multimodal Diffusion Models and Graph Neural Networks for Accurate New Fashion Product Performance Forecasting
- Title(参考訳): Dif4FF:新しいファッション製品パフォーマンス予測のためのマルチモーダル拡散モデルとグラフニューラルネットワークの活用
- Authors: Andrea Avogaro, Luigi Capogrosso, Franco Fummi, Marco Cristani,
- Abstract要約: 本稿では,新しいファッション製品パフォーマンス予測(NFPPF)のための2段階パイプラインであるDif4FFを提案する。
Dif4FFは、まずマルチモーダルスコアに基づく拡散モデルを用いて、様々な衣服の複数の販売軌跡を時間とともに予測する。
予測は強力なGraph Convolutional Network(GCN)アーキテクチャを使って洗練される。
- 参考スコア(独自算出の注目度): 9.100853455059111
- License:
- Abstract: In the fast-fashion industry, overproduction and unsold inventory create significant environmental problems. Precise sales forecasts for unreleased items could drastically improve the efficiency and profits of industries. However, predicting the success of entirely new styles is difficult due to the absence of past data and ever-changing trends. Specifically, currently used deterministic models struggle with domain shifts when encountering items outside their training data. The recently proposed diffusion models address this issue using a continuous-time diffusion process. Specifically, these models enable us to predict the sales of new items, mitigating the domain shift challenges encountered by deterministic models. As a result, this paper proposes Dif4FF, a novel two-stage pipeline for New Fashion Product Performance Forecasting (NFPPF) that leverages the power of diffusion models conditioned on multimodal data related to specific clothes. Dif4FF first utilizes a multimodal score-based diffusion model to forecast multiple sales trajectories for various garments over time. The forecasts are refined using a powerful Graph Convolutional Network (GCN) architecture. By leveraging the GCN's capability to capture long-range dependencies within both the temporal and spatial data and seeking the optimal solution between these two dimensions, Dif4FF offers the most accurate and efficient forecasting system available in the literature for predicting the sales of new items. We tested Dif4FF on VISUELLE, the de facto standard for NFPPF, achieving new state-of-the-art results.
- Abstract(参考訳): ファストファッション産業では、過剰生産と未販売在庫が重大な環境問題を生み出している。
未発売品の正確な販売予測は、産業の効率性と利益を大幅に改善する可能性がある。
しかし、過去のデータがないことと、常に変化する傾向のために、まったく新しいスタイルの成功を予測することは難しい。
具体的には、現在使われている決定論的モデルは、トレーニングデータ外のアイテムに遭遇する際にドメインシフトに苦労する。
最近提案された拡散モデルは、連続時間拡散プロセスを用いてこの問題に対処する。
具体的には、これらのモデルにより、決定論的モデルによって直面するドメインシフトの課題を軽減し、新しいアイテムの販売を予測することができる。
そこで本研究では,NFPPF(New Fashion Product Performance Forecasting)の新たな2段階パイプラインであるDif4FFを提案する。
Dif4FFは、まずマルチモーダルスコアに基づく拡散モデルを用いて、様々な衣服の複数の販売軌跡を時間とともに予測する。
予測は強力なGraph Convolutional Network(GCN)アーキテクチャを使って洗練される。
GCNの時間的および空間的データの長距離依存関係を捕捉し、これらの2次元間の最適解を求める能力を活用して、Dif4FFは、新しいアイテムの販売を予測するために文献で利用可能な最も正確かつ効率的な予測システムを提供する。
我々は、NFPPFのデファクトスタンダードであるVISUELLE上でDif4FFを試験し、新しい最先端結果を得た。
関連論文リスト
- Transfer Learning for Diffusion Models [43.10840361752551]
拡散モデルは高品質な合成サンプルを一貫して生成する。
コレクションコストや関連するリスクのため、現実のアプリケーションでは実用的ではありません。
本稿では,従来の微調整法や正規化法とは異なる新しいアプローチであるTransfer Guided Diffusion Process (TGDP)を紹介する。
論文 参考訳(メタデータ) (2024-05-27T06:48:58Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Neural Diffusion Models [2.1779479916071067]
本稿では,データの時間依存非線形変換の定義と学習を可能にする,従来の拡散モデルの一般化について述べる。
NDMは、可能性の観点から従来の拡散モデルより優れ、高品質なサンプルを生成する。
論文 参考訳(メタデータ) (2023-10-12T13:54:55Z) - Predict, Refine, Synthesize: Self-Guiding Diffusion Models for
Probabilistic Time Series Forecasting [10.491628898499684]
時系列の非条件学習拡散モデルであるTSDiffを提案する。
提案する自己誘導機構により、補助的ネットワークやトレーニング手順の変更を必要とせず、推論中に下流タスクに対してTSDiffを条件付けることができる。
本研究では,予測,改良,合成データ生成という3つの時系列タスクにおいて,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-21T10:56:36Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - A Survey on Generative Diffusion Model [75.93774014861978]
拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
論文 参考訳(メタデータ) (2022-09-06T16:56:21Z) - Well Googled is Half Done: Multimodal Forecasting of New Fashion Product
Sales with Image-based Google Trends [13.873453929997776]
新しいファッション製品の売上予測は多くのビジネスダイナミクスを伴う難しい問題である。
本稿では,エンコーダが時系列の表現を学習するニューラルネットワークに基づくアプローチを提案する。
我々のモデルは非自己回帰的な方法で動作し、大きな第1ステップエラーの複合効果を避ける。
論文 参考訳(メタデータ) (2021-09-20T20:15:08Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。