論文の概要: DATE: Domain Adaptive Product Seeker for E-commerce
- arxiv url: http://arxiv.org/abs/2304.03669v1
- Date: Fri, 7 Apr 2023 14:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 11:46:59.365858
- Title: DATE: Domain Adaptive Product Seeker for E-commerce
- Title(参考訳): DATE:Eコマースのためのドメイン適応型製品シーカー
- Authors: Haoyuan Li, Hao Jiang, Tao Jin, Mengyan Li, Yan Chen, Zhijie Lin, Yang
Zhao, Zhou Zhao
- Abstract要約: Product Retrieval (PR) と Grounding (PG) は,テキストクエリに基づいて,それぞれイメージとオブジェクトレベルの製品を求めることを目的としている。
bf Domain bf Adaptive Producbf t Sbf eeker (bf DATE) フレームワークを提案する。
- 参考スコア(独自算出の注目度): 75.25578276795383
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Product Retrieval (PR) and Grounding (PG), aiming to seek image and
object-level products respectively according to a textual query, have attracted
great interest recently for better shopping experience. Owing to the lack of
relevant datasets, we collect two large-scale benchmark datasets from Taobao
Mall and Live domains with about 474k and 101k image-query pairs for PR, and
manually annotate the object bounding boxes in each image for PG. As annotating
boxes is expensive and time-consuming, we attempt to transfer knowledge from
annotated domain to unannotated for PG to achieve un-supervised Domain
Adaptation (PG-DA). We propose a {\bf D}omain {\bf A}daptive Produc{\bf t}
S{\bf e}eker ({\bf DATE}) framework, regarding PR and PG as Product Seeking
problem at different levels, to assist the query {\bf date} the product.
Concretely, we first design a semantics-aggregated feature extractor for each
modality to obtain concentrated and comprehensive features for following
efficient retrieval and fine-grained grounding tasks. Then, we present two
cooperative seekers to simultaneously search the image for PR and localize the
product for PG. Besides, we devise a domain aligner for PG-DA to alleviate
uni-modal marginal and multi-modal conditional distribution shift between
source and target domains, and design a pseudo box generator to dynamically
select reliable instances and generate bounding boxes for further knowledge
transfer. Extensive experiments show that our DATE achieves satisfactory
performance in fully-supervised PR, PG and un-supervised PG-DA. Our
desensitized datasets will be publicly available
here\footnote{\url{https://github.com/Taobao-live/Product-Seeking}}.
- Abstract(参考訳): 商品検索 (Product Retrieval, PR) とグラウンドイング (Grounding, PG) は, 画像とオブジェクトレベルの製品を, テキストクエリに基づいて検索することを目的としている。
関連するデータセットの欠如により,pr用に約474kと101kのイメージクエリペアを持つtaobao mallとliveドメインの2つの大規模ベンチマークデータセットを収集し,pgの各画像にオブジェクトバウンディングボックスを手作業でアノテートする。
アノテーションボックスは高価で時間を要するため,非教師付きドメイン適応(PG-DA)を実現するために,アノテーション付きドメインから非アノテーション付きドメインへの知識伝達を試みる。
本稿では, PR と PG を異なるレベルにおける製品探索問題として扱うための, {\bf D}omain {\bf A}daptive Produc{\bf t} S{\bf e}eker ({\bf DATE}) フレームワークを提案する。
具体的には,まず,各モダリティに対するセマンティクス集約型特徴抽出器の設計を行い,効率的な検索と細粒度接地作業を行うための集中的かつ包括的な特徴量を得る。
次に,2人の協力的探索者に対して,画像のPR検索とPGのローカライズを行う。
さらに、PG-DAの領域整合器を考案し、ソースとターゲットドメイン間の一様境界条件と多モード条件の分散シフトを緩和し、疑似ボックス生成器を設計し、信頼性の高いインスタンスを動的に選択し、さらなる知識伝達のためにバウンディングボックスを生成する。
広汎な実験により, 完全教師付きPR, PGおよび非教師付きPG-DAにおいて, DATEは良好な性能を示した。
脱感化データセットはここで公開されます。footnote{\url{https://github.com/Taobao-live/Product-Seeking}}。
関連論文リスト
- Multi-Grained Query-Guided Set Prediction Network for Grounded Multimodal Named Entity Recognition [9.506482334842293]
Grounded Multimodal Named Entity Recognition (GMNER) は、新しい情報抽出(IE)タスクである。
近年,機械読解やシーケンス生成に基づくフレームワークを用いた統一手法は,この難易度に限界を生じさせている。
そこで我々は,Multi-fine Query-guided Set Prediction Network (MQSPN) という新しい統合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-17T05:42:43Z) - Text-Based Product Matching -- Semi-Supervised Clustering Approach [9.748519919202986]
本稿では,半教師付きクラスタリング手法を用いた製品マッチングの新しい哲学を提案する。
実世界のデータセット上でIDECアルゴリズムを実験することにより,本手法の特性について検討する。
論文 参考訳(メタデータ) (2024-02-01T18:52:26Z) - Two Is Better Than One: Dual Embeddings for Complementary Product
Recommendations [2.294014185517203]
製品に2つの埋め込み表現を活用することで、補足的項目の発見に新しいアプローチを適用する。
我々のモデルは実装が簡単であり、あらゆるeコマースウェブサイトで補完的なアイテムレコメンデーションを生成するための優れた候補となる。
論文 参考訳(メタデータ) (2022-11-28T00:58:21Z) - Visually Similar Products Retrieval for Shopsy [0.0]
マルチタスク学習手法を用いて,リセラーコマースのためのビジュアル検索システムを設計する。
我々のモデルは属性分類、三重項ランク付け、変分オートエンコーダ(VAE)の3つの異なるタスクからなる。
論文 参考訳(メタデータ) (2022-10-10T10:59:18Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Seeking Similarities over Differences: Similarity-based Domain Alignment
for Adaptive Object Detection [86.98573522894961]
本研究では,Unsupervised Domain Adaptation (UDA) アルゴリズムが検出に使用するコンポーネントを一般化するフレームワークを提案する。
具体的には、最適な設計選択を生かした新しいUDAアルゴリズムViSGAを提案し、インスタンスレベルの特徴を集約する単純だが効果的な方法を提案する。
類似性に基づくグループ化と対角トレーニングの両方により、モデルでは、ゆるやかに整列されたドメインにまたがるすべてのインスタンスにマッチせざるを得ず、機能グループを粗い整列することに集中することが可能であることが示されています。
論文 参考訳(メタデータ) (2021-10-04T13:09:56Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z) - Deep Co-Training with Task Decomposition for Semi-Supervised Domain
Adaptation [80.55236691733506]
半教師付きドメイン適応(SSDA)は、ラベル付きソースドメインからトレーニングされたモデルを、異なるが関連するターゲットドメインに適応させることを目的としている。
本稿では,SSDAタスクを対象ドメイン内の半教師付き学習(SSL)タスクと,ドメイン間の非教師付きドメイン適応(UDA)タスクの2つのサブタスクに明示的に分解することを提案する。
論文 参考訳(メタデータ) (2020-07-24T17:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。