論文の概要: Transformer-based Graph Neural Networks for Outfit Generation
- arxiv url: http://arxiv.org/abs/2304.08098v1
- Date: Mon, 17 Apr 2023 09:18:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 15:54:52.481940
- Title: Transformer-based Graph Neural Networks for Outfit Generation
- Title(参考訳): 変圧器型グラフニューラルネットワークによる衣装生成
- Authors: Federico Becattini, Federico Maria Teotini, Alberto Del Bimbo
- Abstract要約: TGNNは、畳み込みグラフニューラルネットワークにおけるメッセージパッシングステップとして、多面的な自己注意を利用して、グラフ内の衣服アイテム間の関係をキャプチャする。
畳み込みグラフニューラルネットワークにおけるメッセージパッシングステップとして,多面的な自己注意を利用して,グラフ内の衣服アイテム間の関係をキャプチャするトランスフォーマーアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 22.86041284499166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Suggesting complementary clothing items to compose an outfit is a process of
emerging interest, yet it involves a fine understanding of fashion trends and
visual aesthetics. Previous works have mainly focused on recommendation by
scoring visual appeal and representing garments as ordered sequences or as
collections of pairwise-compatible items. This limits the full usage of
relations among clothes. We attempt to bridge the gap between outfit
recommendation and generation by leveraging a graph-based representation of
items in a collection. The work carried out in this paper, tries to build a
bridge between outfit recommendation and generation, by discovering new
appealing outfits starting from a collection of pre-existing ones. We propose a
transformer-based architecture, named TGNN, which exploits multi-headed self
attention to capture relations between clothing items in a graph as a message
passing step in Convolutional Graph Neural Networks. Specifically, starting
from a seed, i.e.~one or more garments, outfit generation is performed by
iteratively choosing the garment that is most compatible with the previously
chosen ones. Extensive experimentations are conducted with two different
datasets, demonstrating the capability of the model to perform seeded outfit
generation as well as obtaining state of the art results on compatibility
estimation tasks.
- Abstract(参考訳): 衣服を構成するために補完的な衣服を推奨することは、新しい関心のプロセスであるが、それはファッショントレンドと視覚美学の詳細な理解を含んでいる。
それまでの作品は、視覚的な魅力を採点し、服を順序付きシーケンスまたは対互換アイテムのコレクションとして表現することによる推薦に重点を置いてきた。
これは衣服間の関係の完全な使用を制限する。
我々は,コレクション内のアイテムのグラフベース表現を利用することで,服装推薦と生成のギャップを埋めることを試みる。
本研究は,既存の服のコレクションから始まった,新しい魅力ある服の発見によって,服の推薦と世代間の橋を築こうとするものである。
我々は,畳み込みグラフニューラルネットワークにおけるメッセージパッシングステップとして,多面的な自己注意を利用して,グラフ内の衣服アイテム間の関係をキャプチャするトランスフォーマーベースのアーキテクチャTGNNを提案する。
具体的には、種子、すなわち1つ以上の衣服から始め、以前選択された衣服と最も互換性のある衣服を反復的に選択して衣服生成を行う。
2つの異なるデータセットを用いて広範な実験を行い、シードされた衣装生成を行うモデルの能力と互換性評価タスクにおける技術結果の取得を実証した。
関連論文リスト
- Multi-Garment Customized Model Generation [3.1679243514285194]
マルチゲージカスタマイズモデル生成は、潜在拡散モデル(LDM)に基づく統合フレームワークである
本フレームワークは,脱結合型マルチガーメント機能融合による複数衣服の条件生成を支援する。
提案する衣料エンコーダは,他の拡張モジュールと組み合わせることができるプラグアンドプレイモジュールである。
論文 参考訳(メタデータ) (2024-08-09T17:57:33Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - Fashion Recommendation: Outfit Compatibility using GNN [0.0]
装束を表すためにグラフを用いた既存の2つのアプローチに従う。
ノードワイズグラフニューラルネットワーク(NGNN)とハイパーグラフニューラルネットワーク(Hypergraph Neural Network)はどちらも、アイテムの配置互換性に応じてアイテムのセットをスコアすることを目的としている。
このデータのサブセットの分析を再現し、2つのタスクで既存の2つのモデルを比較します。 空白(FITB:Fill in the empty) – 衣装を完成させるアイテムを見つけ出し、適合性予測: 衣装としてグループ化されたさまざまなアイテムの互換性を推定します。
論文 参考訳(メタデータ) (2024-04-28T00:57:17Z) - VICTOR: Visual Incompatibility Detection with Transformers and
Fashion-specific contrastive pre-training [18.753508811614644]
Visual InCompatibility TransfORmer (VICTOR) は、1) 回帰としての全体的な互換性、2) ミスマッチアイテムの検出の2つのタスクに最適化されている。
Polyvore-MISFITと呼ばれる新しいデータセットを作成し、部分的にミスマッチした服を生成するために、Polyvoreの服のベンチマークを構築した。
一連のアブレーションと比較分析により、提案されたアーキテクチャは、現在のPolyvoreデータセットの最先端を競合し、越えることが可能であることを示している。
論文 参考訳(メタデータ) (2022-07-27T11:18:55Z) - Learning Fashion Compatibility from In-the-wild Images [6.591937706757015]
筆者らは,自己教師型学習を通じて,現在地にあるストリートファッション画像から,互換性予測のための表現を学習する。
本研究の前提課題は、同一人物が着用する異なる項目の表現が、他人が着用するものよりも近いように定式化されている。
ファッションコンフィグレーションベンチマークとして,Polyvore と Polyvore-Disjoint の2種類について実験を行った。
論文 参考訳(メタデータ) (2022-06-13T09:05:25Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - UIGR: Unified Interactive Garment Retrieval [105.56179829647142]
対話型衣服検索(IGR)は、基準衣服画像に基づいて対象衣服画像を検索することを目的としている。
テキスト誘導衣料検索(TGR)と視覚互換衣料検索(VCR)の2つのタスクが広く研究されている。
本稿では,TGRとVCRを統合するためのUIGR(Unified Interactive Garment Retrieval)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-06T21:54:14Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Fashion Recommendation and Compatibility Prediction Using Relational
Network [18.13692056232815]
我々は、新しい互換性学習モデルを開発するための関係ネットワーク(RN)を開発する。
FashionRNは、任意の数のアイテムを任意の順序で、服全体の互換性を学習する。
我々はPolyvoreのウェブサイトから収集した49,740の服の大規模なデータセットを用いてモデルを評価した。
論文 参考訳(メタデータ) (2020-05-13T21:00:54Z) - Learning Diverse Fashion Collocation by Neural Graph Filtering [78.9188246136867]
本稿では,グラフニューラルネットワークを用いて,フレキシブルなファッションアイテムセットをモデル化する新しいファッションコロケーションフレームワークであるNeural Graph Filteringを提案する。
エッジベクトルに対称演算を適用することにより、このフレームワークは様々な入力/出力を許容し、それらの順序に不変である。
提案手法を,Polyvoreデータセット,Polyvore-Dデータセット,Amazon Fashionデータセットの3つの一般的なベンチマークで評価した。
論文 参考訳(メタデータ) (2020-03-11T16:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。