論文の概要: Multi-Level Visual Similarity Based Personalized Tourist Attraction
Recommendation Using Geo-Tagged Photos
- arxiv url: http://arxiv.org/abs/2109.08275v1
- Date: Fri, 17 Sep 2021 01:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 14:44:32.149975
- Title: Multi-Level Visual Similarity Based Personalized Tourist Attraction
Recommendation Using Geo-Tagged Photos
- Title(参考訳): ジオタグ写真を用いた多層視覚類似性に基づくパーソナライズドツーリズムの推薦
- Authors: Ling Chen, Dandan Lyu, Shanshan Yu, and Gencai Chen
- Abstract要約: ジオタグ写真を用いた多層視覚類似性に基づくパーソナライズされた観光アトラクション推薦を提案する。
視覚的類似度レベルを4つ定義し、画像の視覚的内容を埋め込むために対応するクインタップレット損失を導入する。
異なる写真の重要さを捉えるために,ユーザや観光地を視覚的に表現するために,自己注意機構を利用する。
- 参考スコア(独自算出の注目度): 7.176673263585931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Geo-tagged photo based tourist attraction recommendation can discover users'
travel preferences from their taken photos, so as to recommend suitable tourist
attractions to them. However, existing visual content based methods cannot
fully exploit the user and tourist attraction information of photos to extract
visual features, and do not differentiate the significances of different
photos. In this paper, we propose multi-level visual similarity based
personalized tourist attraction recommendation using geo-tagged photos (MEAL).
MEAL utilizes the visual contents of photos and interaction behavior data to
obtain the final embeddings of users and tourist attractions, which are then
used to predict the visit probabilities. Specifically, by crossing the user and
tourist attraction information of photos, we define four visual similarity
levels and introduce a corresponding quintuplet loss to embed the visual
contents of photos. In addition, to capture the significances of different
photos, we exploit the self-attention mechanism to obtain the visual
representations of users and tourist attractions. We conducted experiments on a
dataset crawled from Flickr, and the experimental results proved the advantage
of this method.
- Abstract(参考訳): ジオタグ写真ベースの観光アトラクションレコメンデーションは、利用者が撮影した写真から旅行好みを発見することで、適切な観光アトラクションを推奨する。
しかし,既存の視覚コンテンツベース手法では,写真のユーザや観光客のアトラクション情報を十分に活用して視覚的特徴を抽出することはできず,異なる写真の意義を区別することができない。
本稿では,ジオタグ写真(MEAL)を用いた多層視認性に基づくパーソナライズされた観光アトラクションを提案する。
食事は、写真と対話行動データの視覚コンテンツを利用して、利用者と観光客のアトラクションの最終的な埋め込みを取得し、訪問確率を予測するために使用される。
具体的には,写真のユーザ情報と観光アトラクション情報とを交差させることで,4つの視覚的類似度を定義し,写真の視覚コンテンツを埋め込むために対応するクインタプレットロスを導入する。
また、異なる写真の重要さを捉えるために、ユーザや観光地を視覚的に表現するために自己認識機構を利用する。
Flickrからクロールしたデータセットについて実験を行い,本手法の利点を実証した。
関連論文リスト
- Enhancing Historical Image Retrieval with Compositional Cues [3.2276097734075426]
本稿では,この話題に計算美学,すなわち画像合成から重要な要素を紹介する。
CNNが抽出した合成関連情報を設計した検索モデルに明示的に統合することにより、画像の合成規則と意味情報の両方を考察する。
論文 参考訳(メタデータ) (2024-03-21T10:51:19Z) - Tell Me What Is Good About This Property: Leveraging Reviews For
Segment-Personalized Image Collection Summarization [3.063926257586959]
プロパティ・レビューの分析により,プロパティ・ヴィジュアライゼーションの要約におけるユーザの意図を考察する。
視覚的な要約にレビューからの洞察を取り入れることで、ユーザに対して関連コンテンツを提示することで要約を強化する。
人間の知覚研究を含む我々の実験は、我々のクロスモーダルアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2023-10-30T17:06:49Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - Image Aesthetics Assessment via Learnable Queries [59.313054821874864]
本稿では,IAA-LQを用いた画像美学評価手法を提案する。
フリーズされた画像エンコーダから得られた事前訓練された画像特徴から、学習可能なクエリを適応して美的特徴を抽出する。
実世界のデータに関する実験では、IAA-LQの利点が示され、SRCCとPLCCでそれぞれ2.2%、そして2.1%が最先端の手法に勝っている。
論文 参考訳(メタデータ) (2023-09-06T09:42:16Z) - StyleEDL: Style-Guided High-order Attention Network for Image Emotion
Distribution Learning [69.06749934902464]
StyleEDLと呼ばれる画像感情分布学習のためのスタイル誘導型高次アテンションネットワークを提案する。
StyleEDLは視覚内容の階層的スタイリスティック情報を探索することにより、画像のスタイリスティックな表現を対話的に学習する。
さらに、コンテンツ依存の感情表現を動的に生成するスタイリスティックなグラフ畳み込みネットワークを導入する。
論文 参考訳(メタデータ) (2023-08-06T03:22:46Z) - Identifying Professional Photographers Through Image Quality and
Aesthetics in Flickr [0.0]
本研究では,写真とビデオの共有プラットフォームに適切なデータセットが存在しないことを明らかにする。
我々は、オープンソースのマルチモーダルデータを用いて、Flickrで最大のラベル付きデータセットの1つを作成しました。
画像の審美性と技術的品質と,その画像の社会的活動との関係について検討した。
論文 参考訳(メタデータ) (2023-07-04T14:55:37Z) - Photoswap: Personalized Subject Swapping in Images [56.2650908740358]
Photowapは参照画像から対象の視覚概念を学習し、事前訓練された拡散モデルを用いて対象画像に置き換える。
Photowapは、被験者のスワップ、背景保存、全体的な品質において、人間の評価におけるベースラインの手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-05-29T17:56:13Z) - FaIRCoP: Facial Image Retrieval using Contrastive Personalization [43.293482565385055]
属性から顔画像を取得することは、顔認識や被疑者識別などの様々なシステムにおいて重要な役割を果たす。
既存の方法は、ユーザのメンタルイメージの特定の特徴を、提案した画像と比較することで実現している。
そこで本研究では,ユーザのフィードバックを用いて,対象画像と類似あるいは異な画像とラベル付けする手法を提案する。
論文 参考訳(メタデータ) (2022-05-28T09:52:09Z) - From A Glance to "Gotcha": Interactive Facial Image Retrieval with
Progressive Relevance Feedback [72.29919762941029]
本稿では,目撃者から徐々にフィードバックを得て顔画像を取得するためのエンドツーエンドフレームワークを提案する。
追加のアノテーションを必要とせずに、私たちのモデルは少しのレスポンスの努力を犠牲にして適用できます。
論文 参考訳(メタデータ) (2020-07-30T18:46:25Z) - Unsupervised Learning of Landmarks based on Inter-Intra Subject
Consistencies [72.67344725725961]
本稿では,物体間ランドマーク成分を顔画像に組み込むことにより,画像ランドマーク発見のための教師なし学習手法を提案する。
これは、補助的な主題関連構造に基づいて、元の主題のランドマークを変換するオブジェクト間マッピングモジュールによって達成される。
変換された画像から元の被写体に戻るために、ランドマーク検出器は、対のオブジェクト内画像と対のオブジェクト間画像の両方に一貫した意味を含む空間的位置を学習せざるを得ない。
論文 参考訳(メタデータ) (2020-04-16T20:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。