論文の概要: Tell Me What Is Good About This Property: Leveraging Reviews For
Segment-Personalized Image Collection Summarization
- arxiv url: http://arxiv.org/abs/2310.19743v1
- Date: Mon, 30 Oct 2023 17:06:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 18:50:54.274625
- Title: Tell Me What Is Good About This Property: Leveraging Reviews For
Segment-Personalized Image Collection Summarization
- Title(参考訳): この特性のよいところを教えてください:セグメントパーソナライズされた画像収集の要約にレビューを活用する
- Authors: Monika Wysoczanska, Moran Beladev, Karen Lastmann Assaraf, Fengjun
Wang, Ofri Kleinfeld, Gil Amsalem, Hadas Harush Boker
- Abstract要約: プロパティ・レビューの分析により,プロパティ・ヴィジュアライゼーションの要約におけるユーザの意図を考察する。
視覚的な要約にレビューからの洞察を取り入れることで、ユーザに対して関連コンテンツを提示することで要約を強化する。
人間の知覚研究を含む我々の実験は、我々のクロスモーダルアプローチの優位性を実証している。
- 参考スコア(独自算出の注目度): 3.063926257586959
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image collection summarization techniques aim to present a compact
representation of an image gallery through a carefully selected subset of
images that captures its semantic content. When it comes to web content,
however, the ideal selection can vary based on the user's specific intentions
and preferences. This is particularly relevant at Booking.com, where presenting
properties and their visual summaries that align with users' expectations is
crucial. To address this challenge, we consider user intentions in the
summarization of property visuals by analyzing property reviews and extracting
the most significant aspects mentioned by users. By incorporating the insights
from reviews in our visual summaries, we enhance the summaries by presenting
the relevant content to a user. Moreover, we achieve it without the need for
costly annotations. Our experiments, including human perceptual studies,
demonstrate the superiority of our cross-modal approach, which we coin as
CrossSummarizer over the no-personalization and image-based clustering
baselines.
- Abstract(参考訳): 画像収集要約技術は、画像ギャラリーのコンパクトな表現を、その意味的コンテンツをキャプチャする画像の慎重に選択されたサブセットを通して提示することを目的としている。
しかし、webコンテンツに関しては、ユーザの特定の意図や好みに応じて、理想的な選択が異なります。
これはBooking.comで特に重要であり、ユーザの期待に沿うプロパティとその視覚的要約を提示することが重要である。
この課題に対処するために、プロパティレビューを分析し、ユーザが言及する最も重要な側面を抽出することで、プロパティビジュアルの要約におけるユーザ意図を考察する。
視覚的な要約にレビューからの洞察を取り入れることで、関連コンテンツをユーザに提示することで要約を強化する。
さらに、コストのかかるアノテーションを必要とせずに実現します。
人間の知覚研究を含む我々の実験は、ノンパーソナライズとイメージベースのクラスタリングベースラインよりもクロスサムマライザとして生み出される、クロスモーダルアプローチの優位性を示しています。
関連論文リスト
- Enhancing Historical Image Retrieval with Compositional Cues [3.2276097734075426]
本稿では,この話題に計算美学,すなわち画像合成から重要な要素を紹介する。
CNNが抽出した合成関連情報を設計した検索モデルに明示的に統合することにより、画像の合成規則と意味情報の両方を考察する。
論文 参考訳(メタデータ) (2024-03-21T10:51:19Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Stellar: Systematic Evaluation of Human-Centric Personalized
Text-to-Image Methods [52.806258774051216]
我々は,個々のイメージを入力し,生成プロセスの基盤となるテキストと,所望の視覚的コンテキストを記述したテキストに焦点をあてる。
我々は,既存の関連するデータセットよりも桁違いの大きさの個人画像と,リッチなセマンティックな接地真実アノテーションが容易に利用できるパーソナライズされたプロンプトを含む標準化データセット(Stellar)を紹介した。
被験者ごとにテストタイムの微調整を必要とせず,新しいSoTAを定量的かつ人為的に設定した,シンプルで効率的でパーソナライズされたテキスト・ツー・イメージのベースラインを導出する。
論文 参考訳(メタデータ) (2023-12-11T04:47:39Z) - Collaborative Group: Composed Image Retrieval via Consensus Learning from Noisy Annotations [67.92679668612858]
我々は,集団が個人より優れているという心理的概念に触発されたコンセンサスネットワーク(Css-Net)を提案する。
Css-Netは,(1)コンセンサスモジュールと4つのコンセンサスモジュール,(2)コンセンサス間の相互作用の学習を促進するKulback-Leibler分散損失の2つのコアコンポーネントから構成される。
ベンチマークデータセット、特にFashionIQでは、Css-Netが大幅に改善されている。特に、R@10が2.77%、R@50が6.67%増加し、リコールが大幅に向上している。
論文 参考訳(メタデータ) (2023-06-03T11:50:44Z) - The Elements of Visual Art Recommendation: Learning Latent Semantic
Representations of Paintings [7.79230326339002]
アートワークのレコメンデーションは、ユーザが非常に主観的なコンテンツとどのように相互作用するかを理解する必要があるため、難しい。
本稿では、パーソナライズされたレコメンデーションのための視覚芸術の要素(すなわち潜在意味関係)を効率よく把握することに焦点を当てる。
論文 参考訳(メタデータ) (2023-02-28T18:17:36Z) - Can you recommend content to creatives instead of final consumers? A
RecSys based on user's preferred visual styles [69.69160476215895]
このレポートは、ACM RecSys '22で発表された論文"Learning Users' Preferred Visual Styles in an Image Marketplace"の拡張である。
ユーザが作業するプロジェクトのセマンティクスに対して視覚スタイルの好みを学習するRecSysを設計する。
論文 参考訳(メタデータ) (2022-08-23T12:11:28Z) - FaIRCoP: Facial Image Retrieval using Contrastive Personalization [43.293482565385055]
属性から顔画像を取得することは、顔認識や被疑者識別などの様々なシステムにおいて重要な役割を果たす。
既存の方法は、ユーザのメンタルイメージの特定の特徴を、提案した画像と比較することで実現している。
そこで本研究では,ユーザのフィードバックを用いて,対象画像と類似あるいは異な画像とラベル付けする手法を提案する。
論文 参考訳(メタデータ) (2022-05-28T09:52:09Z) - Composition and Style Attributes Guided Image Aesthetic Assessment [66.60253358722538]
本稿では,画像の美学を自動予測する手法を提案する。
提案ネットワークには,意味的特徴抽出のための事前学習ネットワーク(Backbone)と,画像属性の予測にBackbone機能に依存するマルチレイヤパーセプトロン(MLP)ネットワーク(AttributeNet)が含まれる。
画像が与えられた場合、提案するマルチネットワークは、スタイルと構成属性、および美的スコア分布を予測できる。
論文 参考訳(メタデータ) (2021-11-08T17:16:38Z) - Exploring Set Similarity for Dense Self-supervised Representation
Learning [96.35286140203407]
本研究では,高密度自己教師型表現学習のためのtextbfset textbfsimilarity (SetSim) を提案する。
ピクセルワイドの類似性学習をセットワイドに一般化し,よりセマンティックな情報や構造的な情報を含むため,ロバスト性を向上させる。
具体的には、ビューの注意的特徴に頼って対応する集合を定め、不適切な対応を引き起こす可能性のあるノイズの多い背景をフィルタリングする。
論文 参考訳(メタデータ) (2021-07-19T09:38:27Z) - Content and Context Features for Scene Image Representation [16.252523139552174]
コンテンツの特徴とコンテキストの特徴を計算し、それらを融合させる新しい手法を提案する。
コンテンツ機能については、画像の背景情報と前景情報に基づいて、マルチスケールの深い特徴を設計する。
コンテクストの特徴として、Webで利用可能な類似画像のアノテーションを使用して、フィルタワード(コードブック)を設計する。
論文 参考訳(メタデータ) (2020-06-05T03:19:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。