論文の概要: VLSNR:Vision-Linguistics Coordination Time Sequence-aware News
Recommendation
- arxiv url: http://arxiv.org/abs/2210.02946v1
- Date: Thu, 6 Oct 2022 14:27:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 15:50:28.736988
- Title: VLSNR:Vision-Linguistics Coordination Time Sequence-aware News
Recommendation
- Title(参考訳): VLSNR:Vision-Linguistics Coordination Time Sequence-Aware News Recommendation
- Authors: Songhao Han (1), Wei Huang (1), Xiaotian Luan (2) ((1) Beihang
University, (2) Peking University)
- Abstract要約: マルチモーダルセマンティクスは、ユーザの時間的および長期的関心の理解を高めるのに有用である。
本研究では,視覚言語による時系列ニュースレコメンデーションを提案する。
また,大規模なマルチモーダルニュースレコメンデーションデータセットV-MINDを構築した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: News representation and user-oriented modeling are both essential for news
recommendation. Most existing methods are based on textual information but
ignore the visual information and users' dynamic interests. However, compared
to textual only content, multimodal semantics is beneficial for enhancing the
comprehension of users' temporal and long-lasting interests. In our work, we
propose a vision-linguistics coordinate time sequence news recommendation.
Firstly, a pretrained multimodal encoder is applied to embed images and texts
into the same feature space. Then the self-attention network is used to learn
the chronological sequence. Additionally, an attentional GRU network is
proposed to model user preference in terms of time adequately. Finally, the
click history and user representation are embedded to calculate the ranking
scores for candidate news. Furthermore, we also construct a large scale
multimodal news recommendation dataset V-MIND. Experimental results show that
our model outperforms baselines and achieves SOTA on our independently
constructed dataset.
- Abstract(参考訳): ニュース表現とユーザ指向モデリングはどちらもニュースレコメンデーションに不可欠である。
既存の手法の多くはテキスト情報に基づいているが、視覚情報やユーザの動的興味を無視する。
しかし、テキストのみのコンテンツと比較して、マルチモーダルセマンティクスはユーザの時間的・長期的関心の理解を高めるのに有用である。
本研究では,視覚言語による時系列ニュースレコメンデーションを提案する。
まず、事前訓練されたマルチモーダルエンコーダを用いて、画像とテキストを同じ特徴空間に埋め込む。
そして、自己注意ネットワークを用いて時系列を学習する。
さらに,ユーザの嗜好を適切にモデル化するための注意的GRUネットワークを提案する。
最後に、クリック履歴とユーザ表現を埋め込んで、候補ニュースのランキングスコアを算出する。
さらに,大規模なマルチモーダルニュースレコメンデーションデータセットV-MINDを構築した。
実験結果から,本モデルはベースラインより優れ,独立に構築したデータセット上でSOTAを実現することがわかった。
関連論文リスト
- TARN-VIST: Topic Aware Reinforcement Network for Visual Storytelling [14.15543866199545]
クロスモーダルなタスクとして、視覚的なストーリーテリングは、順序付けられた画像シーケンスのためのストーリーを自動的に生成することを目的としている。
視覚的ストーリーテリングのための新しい手法,Topic Aware Reinforcement Network(TARN-VIST)を提案する。
特に,視覚的,言語的両面から,物語の話題情報を事前に抽出した。
論文 参考訳(メタデータ) (2024-03-18T08:01:23Z) - MISSRec: Pre-training and Transferring Multi-modal Interest-aware
Sequence Representation for Recommendation [61.45986275328629]
逐次レコメンデーションのためのマルチモーダル事前学習・転送学習フレームワークであるMISSRecを提案する。
ユーザ側ではトランスフォーマーベースのエンコーダデコーダモデルを設計し、コンテキストエンコーダがシーケンスレベルのマルチモーダルユーザ興味を捉えることを学習する。
候補項目側では,ユーザ適応項目表現を生成するために動的融合モジュールを採用する。
論文 参考訳(メタデータ) (2023-08-22T04:06:56Z) - Modeling Multi-interest News Sequence for News Recommendation [0.6787897491422114]
セッションベースのニュースレコメンデータシステムは、セッションで彼女/彼によって読んだりクリックされたりした一連のニュースに埋め込まれた潜在的な関心をモデル化して、次のニュースをユーザに推薦する。
本稿では,ニュースレコメンデーションのための多目的ニュースシーケンス(MINS)モデルを提案する。
MINSでは、各ニュースに対する情報埋め込みを学習するために、自己注意に基づくニュースを考案し、次に次のニュースレコメンデーションに備えて、ニュースシーケンスに埋め込まれた潜在的な複数の興味を引き出すために、新たな並列関心ネットワークを考案する。
論文 参考訳(メタデータ) (2022-07-15T08:03:37Z) - A Closer Look at Debiased Temporal Sentence Grounding in Videos:
Dataset, Metric, and Approach [53.727460222955266]
テンポラル・センテンス・グラウンディング・イン・ビデオ(TSGV)は、未編集のビデオに自然言語文を埋め込むことを目的としている。
最近の研究では、現在のベンチマークデータセットには明らかなモーメントアノテーションバイアスがあることが判明している。
偏りのあるデータセットによる膨らませ評価を緩和するため、基礎的リコールスコアを割引する新しい評価基準「dR@n,IoU@m」を導入する。
論文 参考訳(メタデータ) (2022-03-10T08:58:18Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - Learning Dual Dynamic Representations on Time-Sliced User-Item
Interaction Graphs for Sequential Recommendation [62.30552176649873]
シーケンシャルレコメンデーションのための動的表現学習モデル(DRL-SRe)を考案する。
両面から動的に特徴付けるためのユーザ・イテム相互作用をモデル化するため,提案モデルでは,時間スライス毎にグローバルなユーザ・イテム相互作用グラフを構築した。
モデルが微粒な時間情報を捕捉することを可能にするため,連続時間スライス上での補助的時間予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:44:27Z) - Neural News Recommendation with Collaborative News Encoding and
Structural User Encoding [18.407727437603178]
協調ニュースエンコーディング(CNE)と構造化ユーザエンコーディング(SUE)からなるニュースレコメンデーションフレームワークを提案する。
MINDデータセットの実験結果から,提案モデルの有効性を検証し,ニュースレコメンデーションの性能を向上させる。
論文 参考訳(メタデータ) (2021-09-02T07:16:42Z) - Dynamic Graph Collaborative Filtering [64.87765663208927]
動的レコメンデーションは,逐次データに基づくリアルタイム予測を提供するレコメンデータシステムにとって不可欠である。
本稿では、動的グラフを利用して協調関係とシーケンシャル関係をキャプチャする新しいフレームワーク、Dynamic Graph Collaborative Filtering (DGCF)を提案する。
提案手法は, 動的協調情報の統合の有効性を示すため, 動作繰り返しの少ないデータセットでは高い性能を実現する。
論文 参考訳(メタデータ) (2021-01-08T04:16:24Z) - TAGNN: Target Attentive Graph Neural Networks for Session-based
Recommendation [66.04457457299218]
セッションベースレコメンデーションのための新しいターゲット注意グラフニューラルネットワーク(TAGNN)モデルを提案する。
TAGNNでは、ターゲット・アウェア・アテンションは、様々なターゲット項目に関して異なるユーザ関心を適応的に活性化する。
学習した関心表現ベクトルは、異なる対象項目によって変化し、モデルの表現性を大幅に改善する。
論文 参考訳(メタデータ) (2020-05-06T14:17:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。