論文の概要: Learning the Compositional Visual Coherence for Complementary
Recommendations
- arxiv url: http://arxiv.org/abs/2006.04380v1
- Date: Mon, 8 Jun 2020 06:57:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 01:45:53.300468
- Title: Learning the Compositional Visual Coherence for Complementary
Recommendations
- Title(参考訳): 補完的勧告のための構成的視覚コヒーレンス学習
- Authors: Zhi Li, Bo Wu, Qi Liu, Likang Wu, Hongke Zhao, Tao Mei
- Abstract要約: 補完的なレコメンデーションは、ユーザーが獲得したアイテムと補完的で互換性のある製品提案を提供することを目的としている。
本研究では,グローバルコンテンツとセマンティックコンテンツの両方に包括的コンポジションコヒーレンスをモデル化する新しいコンテント注意ニューラルネットワーク(CANN)を提案する。
- 参考スコア(独自算出の注目度): 62.60648815930101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complementary recommendations, which aim at providing users product
suggestions that are supplementary and compatible with their obtained items,
have become a hot topic in both academia and industry in recent years.
%However, it is challenging due to its complexity and subjectivity. Existing
work mainly focused on modeling the co-purchased relations between two items,
but the compositional associations of item collections are largely unexplored.
Actually, when a user chooses the complementary items for the purchased
products, it is intuitive that she will consider the visual semantic coherence
(such as color collocations, texture compatibilities) in addition to global
impressions. Towards this end, in this paper, we propose a novel Content
Attentive Neural Network (CANN) to model the comprehensive compositional
coherence on both global contents and semantic contents. Specifically, we first
propose a \textit{Global Coherence Learning} (GCL) module based on multi-heads
attention to model the global compositional coherence. Then, we generate the
semantic-focal representations from different semantic regions and design a
\textit{Focal Coherence Learning} (FCL) module to learn the focal compositional
coherence from different semantic-focal representations. Finally, we optimize
the CANN in a novel compositional optimization strategy. Extensive experiments
on the large-scale real-world data clearly demonstrate the effectiveness of
CANN compared with several state-of-the-art methods.
- Abstract(参考訳): 近年, 学業・産業界において, 補足的かつ互換性のある製品提案の提供を目的とした補完的勧告が注目されている。
%であるが,複雑さと主観性から困難である。
現存する研究は、主に2つのアイテム間の共同購入関係のモデル化に重点を置いているが、アイテムコレクションの構成的関連性はほとんど解明されていない。
実際、ユーザが購入した製品の補完アイテムを選択すると、グローバルインプレッションに加えて視覚的なセマンティックコヒーレンス(カラーコロケーションやテクスチャの互換性など)を考えるのは直感的です。
そこで本稿では,グローバルコンテンツとセマンティックコンテンツの両方に対する包括的構成コヒーレンスをモデル化するための,新しいコンテンツ注意ニューラルネットワーク(CANN)を提案する。
具体的には,まず,グローバル構成コヒーレンスをモデル化するために,マルチヘッドに着目した \textit{global coherence learning} (gcl) モジュールを提案する。
次に,異なる意味領域から意味焦点表現を生成し,異なる意味焦点表現から焦点合成コヒーレンスを学習するために,FCL(textit{Focal Coherence Learning})モジュールを設計する。
最後に、新しい構成最適化戦略でCANNを最適化する。
大規模実世界のデータに対する広範囲な実験は、いくつかの最先端手法と比較して、cannの有効性を明確に示している。
関連論文リスト
- IterComp: Iterative Composition-Aware Feedback Learning from Model Gallery for Text-to-Image Generation [70.8833857249951]
IterCompは、複数のモデルから合成対応モデルの好みを集約する新しいフレームワークである。
クローズドループ方式で構成性を向上する反復的フィードバック学習法を提案する。
IterCompは、拡散モデルと合成生成のための報酬フィードバック学習の新たな研究の道を開く。
論文 参考訳(メタデータ) (2024-10-09T17:59:13Z) - Embedding Generalized Semantic Knowledge into Few-Shot Remote Sensing Segmentation [26.542268630980814]
リモートセンシング(RS)画像のためのFew-shot segmentation (FSS)は、限られた注釈付きサンプルからのサポート情報を活用して、新しいクラスのクエリセグメンテーションを実現する。
従来の取り組みは、制約された支援サンプルの集合からセグメント化を導く視覚的手がかりをマイニングすることに集中している。
本稿では,一般的な意味知識を効果的に活用する全体論的意味埋め込み(HSE)手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T14:26:04Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Multi-dimensional Fusion and Consistency for Semi-supervised Medical
Image Segmentation [10.628250457432499]
医用画像セグメンテーションに適した新しい半教師付き学習フレームワークを提案する。
我々のアプローチの中心は、革新的なマルチスケールテキスト対応のViT-CNN Fusionスキームである。
本稿では,ロバストな擬似ラベルを生成するためのマルチアクシス一貫性フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-12T22:21:14Z) - Multi-Grained Multimodal Interaction Network for Entity Linking [65.30260033700338]
マルチモーダルエンティティリンクタスクは、マルチモーダル知識グラフへの曖昧な言及を解決することを目的としている。
MELタスクを解決するための新しいMulti-Grained Multimodal InteraCtion Network $textbf(MIMIC)$ frameworkを提案する。
論文 参考訳(メタデータ) (2023-07-19T02:11:19Z) - ProCC: Progressive Cross-primitive Compatibility for Open-World
Compositional Zero-Shot Learning [29.591615811894265]
Open-World Composal Zero-shot Learning (OW-CZSL) は、コンポジション空間に先立って、画像中の状態とオブジェクトプリミティブの新規なコンポジションを認識することを目的としている。
本稿では,OW-CZSLタスクの学習過程を模倣する,Progressive Cross-primitive Compatibility (ProCC) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-11-19T10:09:46Z) - Global-and-Local Collaborative Learning for Co-Salient Object Detection [162.62642867056385]
Co-Salient Object Detection (CoSOD)の目標は、2つ以上の関連する画像を含むクエリグループに一般的に現れる有能なオブジェクトを見つけることである。
本稿では,グローバル対応モデリング(GCM)とローカル対応モデリング(LCM)を含む,グローバル・ローカル協調学習アーキテクチャを提案する。
提案したGLNetは3つの一般的なCoSODベンチマークデータセットに基づいて評価され、我々のモデルが小さなデータセット(約3k画像)でトレーニングされた場合、一部の大規模データセット(約8k-200k画像)でトレーニングされた11の最先端の競合製品(約8k-200k画像)を上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-19T14:32:41Z) - DCANet: Dense Context-Aware Network for Semantic Segmentation [4.960604671885823]
ローカル詳細情報をグローバルな依存関係と適応的に統合する新しいモジュールであるContext-Aware (DCA) モジュールを提案する。
コンテキスト関係によって駆動されるDCAモジュールは、コンテキスト情報の集約により、より強力な機能を生成することができる。
3つの挑戦的なデータセットに関する広範な実験により、私たちのアプローチの有望なパフォーマンスを実証しています。
論文 参考訳(メタデータ) (2021-04-06T14:12:22Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。