論文の概要: Imitation Learning for Fashion Style Based on Hierarchical Multimodal
Representation
- arxiv url: http://arxiv.org/abs/2004.06229v1
- Date: Mon, 13 Apr 2020 23:02:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 23:35:37.455246
- Title: Imitation Learning for Fashion Style Based on Hierarchical Multimodal
Representation
- Title(参考訳): 階層的マルチモーダル表現に基づくファッションスタイルのための模倣学習
- Authors: Shizhu Liu, Shanglin Yang, and Hui Zhou
- Abstract要約: 本稿では,階層型マルチモーダル表現に基づく報酬関数を復元する逆逆強化学習形式を提案する。
提案したHM-AIRLモデルは,マルチモーダル観測における変化に頑健な報酬関数を復元できることを実証する。
- 参考スコア(独自算出の注目度): 3.5048349268491203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fashion is a complex social phenomenon. People follow fashion styles from
demonstrations by experts or fashion icons. However, for machine agent,
learning to imitate fashion experts from demonstrations can be challenging,
especially for complex styles in environments with high-dimensional, multimodal
observations. Most existing research regarding fashion outfit composition
utilizes supervised learning methods to mimic the behaviors of style icons.
These methods suffer from distribution shift: because the agent greedily
imitates some given outfit demonstrations, it can drift away from one style to
another styles given subtle differences. In this work, we propose an
adversarial inverse reinforcement learning formulation to recover reward
functions based on hierarchical multimodal representation (HM-AIRL) during the
imitation process. The hierarchical joint representation can more
comprehensively model the expert composited outfit demonstrations to recover
the reward function. We demonstrate that the proposed HM-AIRL model is able to
recover reward functions that are robust to changes in multimodal observations,
enabling us to learn policies under significant variation between different
styles.
- Abstract(参考訳): ファッションは複雑な社会現象である。
人々は専門家やファッションアイコンによるデモからファッションスタイルに従う。
しかし、機械エージェントにとって、デモからファッション専門家を模倣する学習は、特に高次元マルチモーダルな観察を行う環境における複雑なスタイルにおいて困難である。
ファッション・コンポジションに関する多くの研究は、スタイル・アイコンの動作を模倣する教師あり学習手法を利用している。
エージェントは与えられた服装のデモを巧みに模倣するため、微妙な違いを伴ってあるスタイルから別のスタイルへと移動することができる。
本研究では,模倣過程における階層的多モーダル表現(HM-AIRL)に基づく報酬関数を復元する逆逆強化学習形式を提案する。
階層的な関節表現は、報酬関数を回復するために、より包括的な合成服のデモンストレーションをモデル化することができる。
提案するhm-airlモデルは,マルチモーダル観察の変化にロバストな報酬関数を復元できることを実証し,異なるスタイル間の大きな変動下でポリシを学習できることを示した。
関連論文リスト
- FashionReGen: LLM-Empowered Fashion Report Generation [61.84580616045145]
先進大言語モデル(LLM)に基づく知的ファッション分析・報告システムを提案する。
具体的には、いくつかの重要な手順を備えた効果的なキャットウォーク分析に基づくFashionReGenの提供を試みる。
また、他の領域における工業的重要性を持つより高度なタスクの探索にも刺激を与えている。
論文 参考訳(メタデータ) (2024-03-11T12:29:35Z) - FashionTex: Controllable Virtual Try-on with Text and Texture [29.7855591607239]
テキストとテクスチャの両方の利点を多段階のファッション操作に組み合わせたマルチモーダル・インタラクティブ・セッティングを提案する。
FashionTexフレームワークは、アノテーション付きのペアトレーニングデータなしで、布の種類や局所的なテクスチャパターンを意味的に制御することができる。
論文 参考訳(メタデータ) (2023-05-08T04:10:36Z) - FashionSAP: Symbols and Attributes Prompt for Fine-grained Fashion
Vision-Language Pre-training [12.652002299515864]
ファッションシンボルと属性プロンプト(FashionSAP)に基づく、きめ細かいファッションビジョン言語事前学習法を提案する。
まず,新しい抽象的なファッション概念層であるファッションシンボルを,異なるファッションアイテムを表現するために提案する。
次に、モデルにファッションアイテムの特定の属性を明示的に学習させる属性プロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-04-11T08:20:17Z) - Multimodal Garment Designer: Human-Centric Latent Diffusion Models for
Fashion Image Editing [40.70752781891058]
本稿では,人間中心のファッション画像の生成を導くマルチモーダルなファッション画像編集の課題を提案する。
我々は遅延拡散モデルに基づく新しいアーキテクチャを提案することでこの問題に対処する。
タスクに適した既存のデータセットがないので、既存の2つのファッションデータセットも拡張します。
論文 参考訳(メタデータ) (2023-04-04T18:03:04Z) - Out-of-Dynamics Imitation Learning from Multimodal Demonstrations [68.46458026983409]
本研究では,実演者と模倣者が同じ状態空間を持つという仮定を緩和する,動的外模擬学習(OOD-IL)について検討する。
OOD-ILは、様々なデモ参加者のデモを利用するための模倣学習を可能にするが、新しい挑戦を導入する。
我々は,この新たな課題に取り組むために,より優れた伝達可能性測定法を開発した。
論文 参考訳(メタデータ) (2022-11-13T07:45:06Z) - FaD-VLP: Fashion Vision-and-Language Pre-training towards Unified
Retrieval and Captioning [66.38951790650887]
ファッション分野におけるマルチモーダルタスクは、eコマースにとって大きな可能性を秘めている。
本稿では,ファッションとテクストのペアから構築した弱教師付き三つ組に基づく,ファッション特有の事前学習フレームワークを提案する。
3重項に基づくタスクは、標準的なマルチモーダル事前学習タスクに有効な追加であることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:01:19Z) - ModeRNN: Harnessing Spatiotemporal Mode Collapse in Unsupervised
Predictive Learning [75.2748374360642]
そこで本研究では,繰り返し状態間の隠れ構造表現を学習するための新しい手法であるModeRNNを提案する。
データセット全体にわたって、異なるモードがスロットの混合に対して異なるレスポンスをもたらすため、ModeRNNが構造化された表現を構築する能力が向上する。
論文 参考訳(メタデータ) (2021-10-08T03:47:54Z) - Semi-Supervised Visual Representation Learning for Fashion Compatibility [17.893627646979038]
そこで本研究では,フライ時に擬陽性で擬陰性な衣服を作成できる半教師付き学習手法を提案する。
トレーニングバッチ内の各ラベル付き服について、ラベル付服の各項目とラベル付品とをマッチングすることにより、擬似アウトフィットを得る。
我々はPolyvore、Polyvore-D、新たに作成した大規模Fashion Outfitsデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-16T15:35:38Z) - Knowledge Enhanced Neural Fashion Trend Forecasting [81.2083786318119]
本研究は,特定のユーザグループを対象とした,きめ細かいファッション要素の傾向の調査に焦点をあてる。
まず、Instagramから収集した大規模なファッショントレンドデータセット(FIT)に、時系列のファッション要素の記録とユーザー情報を抽出した。
本稿では,時系列データモデリングにおける深部再帰型ニューラルネットワークの機能を利用する知識強化型ニューラルネットワークモデル(KERN)を提案する。
論文 参考訳(メタデータ) (2020-05-07T07:42:17Z) - State-Only Imitation Learning for Dexterous Manipulation [63.03621861920732]
本稿では,国家のみの模倣学習について考察する。
我々は、逆ダイナミクスモデルをトレーニングし、状態のみのデモンストレーションのアクションを予測するためにそれを使用します。
我々の手法は状態-作用アプローチと同等に動作し、RL単独よりもかなり優れています。
論文 参考訳(メタデータ) (2020-04-07T17:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。