論文の概要: Why Do We Click: Visual Impression-aware News Recommendation
- arxiv url: http://arxiv.org/abs/2109.12651v1
- Date: Sun, 26 Sep 2021 16:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-03 08:48:55.593115
- Title: Why Do We Click: Visual Impression-aware News Recommendation
- Title(参考訳): なぜクリックするのか:ビジュアルインプレッションを意識したニュースレコメンデーション
- Authors: Jiahao Xun, Shengyu Zhang, Zhou Zhao, Jieming Zhu, Qi Zhang, Jingjie
Li, Xiuqiang He, Xiaofei He, Tat-Seng Chua, Fei Wu
- Abstract要約: この作品は、ユーザーがニュースを閲覧する際に感じる視覚的印象に基づいてクリック決定を行うという事実にインスパイアされている。
本稿では,ニュースレコメンデーションのためのビジュアル・セマンティック・モデリングを用いて,このような視覚印象情報を捉えることを提案する。
さらに、グローバルな視点から印象を検査し、異なるフィールドの配置や印象に対する異なる単語の空間的位置などの構造情報を抽出する。
- 参考スコア(独自算出の注目度): 108.73539346064386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a soaring interest in the news recommendation research scenario due
to the information overload. To accurately capture users' interests, we propose
to model multi-modal features, in addition to the news titles that are widely
used in existing works, for news recommendation. Besides, existing research
pays little attention to the click decision-making process in designing
multi-modal modeling modules. In this work, inspired by the fact that users
make their click decisions mostly based on the visual impression they perceive
when browsing news, we propose to capture such visual impression information
with visual-semantic modeling for news recommendation. Specifically, we devise
the local impression modeling module to simultaneously attend to decomposed
details in the impression when understanding the semantic meaning of news
title, which could explicitly get close to the process of users reading news.
In addition, we inspect the impression from a global view and take structural
information, such as the arrangement of different fields and spatial position
of different words on the impression, into the modeling of multiple modalities.
To accommodate the research of visual impression-aware news recommendation, we
extend the text-dominated news recommendation dataset MIND by adding snapshot
impression images and will release it to nourish the research field. Extensive
comparisons with the state-of-the-art news recommenders along with the in-depth
analyses demonstrate the effectiveness of the proposed method and the promising
capability of modeling visual impressions for the content-based recommenders.
- Abstract(参考訳): 情報過負荷のため、ニュースレコメンデーション研究シナリオへの関心は高まっている。
ユーザの関心を正確に捉えるために,既存の作品で広く使われているニュースタイトルに加えて,ニュースレコメンデーションのために,マルチモーダルな特徴をモデル化することを提案する。
さらに、既存の研究は、マルチモーダルモデリングモジュールを設計する際のクリック決定プロセスにはほとんど注意を払わない。
本研究は,ニュース閲覧時の視覚印象に基づいて,ユーザがクリック決定を行うという事実に着想を得て,ニュースレコメンデーションのためのビジュアル・セマンティック・モデリングによる視覚印象情報のキャプチャを提案する。
具体的には,ニュースタイトルの意味的意味を理解する際に,印象の分解された詳細に同時に対応できるように,局所印象モデリングモジュールを考案する。
さらに,世界的視点から印象を検査し,印象の異なる分野の配置や異なる単語の空間的位置などの構造情報を多様性のモデル化に取り入れる。
ビジュアルインプレッションを意識したニュースレコメンデーションの研究に対応するために,スナップショットインプレッション画像を追加してテキスト優位のニュースレコメンデーションデータセットマインドを拡張し,研究分野を養うために公開する。
現状のニュースレコメンデータとの比較と詳細な分析により,提案手法の有効性と,コンテンツベースレコメンデータの視覚印象をモデル化する有望な能力を実証した。
関連論文リスト
- Towards Retrieval-Augmented Architectures for Image Captioning [81.11529834508424]
本研究は,外部kNNメモリを用いた画像キャプションモデルの構築に向けた新しい手法を提案する。
具体的には、視覚的類似性に基づく知識検索コンポーネントを組み込んだ2つのモデル変種を提案する。
我々はCOCOデータセットとnocapsデータセットに対する我々のアプローチを実験的に検証し、明示的な外部メモリを組み込むことでキャプションの品質を著しく向上させることができることを示した。
論文 参考訳(メタデータ) (2024-05-21T18:02:07Z) - Information Screening whilst Exploiting! Multimodal Relation Extraction
with Feature Denoising and Multimodal Topic Modeling [96.75821232222201]
既存のマルチモーダル関係抽出(MRE)研究は、内部情報過剰利用と外部情報過多という2つの共存課題に直面している。
内部情報スクリーニングと外部情報活用を同時に実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:57Z) - Named Entity and Relation Extraction with Multi-Modal Retrieval [51.660650522630526]
マルチモーダルな名前付きエンティティ認識(NER)と関係抽出(RE)は、関連画像情報を活用してNERとREの性能を向上させることを目的としている。
新たなマルチモーダル検索フレームワーク(MoRe)を提案する。
MoReはテキスト検索モジュールと画像ベースの検索モジュールを含み、入力されたテキストと画像の関連知識をそれぞれ知識コーパスで検索する。
論文 参考訳(メタデータ) (2022-12-03T13:11:32Z) - Focus! Relevant and Sufficient Context Selection for News Image
Captioning [69.36678144800936]
News Image Captioningは、ニュース記事から追加のコンテキストを活用することで、画像を記述する必要がある。
本稿では,事前学習された視覚・言語検索モデルであるCLIPを用いて,ニュース記事中の視覚的根拠を持つエンティティをローカライズすることを提案する。
我々の実験は、記事からより良いコンテキストを選択するだけで、既存のモデルの性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-12-01T20:00:27Z) - VLSNR:Vision-Linguistics Coordination Time Sequence-aware News
Recommendation [0.0]
マルチモーダルセマンティクスは、ユーザの時間的および長期的関心の理解を高めるのに有用である。
本研究では,視覚言語による時系列ニュースレコメンデーションを提案する。
また,大規模なマルチモーダルニュースレコメンデーションデータセットV-MINDを構築した。
論文 参考訳(メタデータ) (2022-10-06T14:27:37Z) - Modeling Multi-interest News Sequence for News Recommendation [0.6787897491422114]
セッションベースのニュースレコメンデータシステムは、セッションで彼女/彼によって読んだりクリックされたりした一連のニュースに埋め込まれた潜在的な関心をモデル化して、次のニュースをユーザに推薦する。
本稿では,ニュースレコメンデーションのための多目的ニュースシーケンス(MINS)モデルを提案する。
MINSでは、各ニュースに対する情報埋め込みを学習するために、自己注意に基づくニュースを考案し、次に次のニュースレコメンデーションに備えて、ニュースシーケンスに埋め込まれた潜在的な複数の興味を引き出すために、新たな並列関心ネットワークを考案する。
論文 参考訳(メタデータ) (2022-07-15T08:03:37Z) - On the Overlooked Significance of Underutilized Contextual Features in
Recent News Recommendation Models [14.40821643757877]
記事の文脈的特徴,例えばクリックスルー率,人気度,新鮮度が近年無視されているか,利用されていないかを示す。
我々は、従来のニュースレコメンデーションモデルを大きなマージンで強化できる、目的的にシンプルなコンテキストモジュールを設計する。
論文 参考訳(メタデータ) (2021-12-29T02:47:56Z) - Graph Enhanced Representation Learning for News Recommendation [85.3295446374509]
本稿では,ユーザとニュースの表現学習を強化するニューズレコメンデーション手法を提案する。
本手法では,歴史的ユーザクリック行動から構築した二部グラフのノードとして,ユーザとニュースをみなす。
論文 参考訳(メタデータ) (2020-03-31T15:27:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。