論文の概要: Personalized Transformer for Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2105.11601v1
- Date: Tue, 25 May 2021 01:42:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 05:15:09.409976
- Title: Personalized Transformer for Explainable Recommendation
- Title(参考訳): 説明可能な推薦のためのパーソナライズドトランスフォーマー
- Authors: Lei Li, Yongfeng Zhang, Li Chen
- Abstract要約: 自然言語生成のパーソナライゼーションは、説明可能なレコメンデーション、要約のレビュー、ダイアログシステムなど、幅広いタスクにおいて重要な役割を果たす。
これらのタスクでは、ユーザIDとアイテムIDはパーソナライズのための重要な識別子である。
しかし、強力な言語モデリング機能を備えたTransformerはパーソナライズされておらず、ユーザIDとアイテムIDを利用できない。
- 参考スコア(独自算出の注目度): 30.092398042735937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalization of natural language generation plays a vital role in a large
spectrum of tasks, such as explainable recommendation, review summarization and
dialog systems. In these tasks, user and item IDs are important identifiers for
personalization. Transformer, which is demonstrated with strong language
modeling capability, however, is not personalized and fails to make use of the
user and item IDs since the ID tokens are not even in the same semantic space
as the words. To address this problem, we present a PErsonalized Transformer
for Explainable Recommendation (PETER), on which we design a simple and
effective learning objective that utilizes the IDs to predict the words in the
target explanation, so as to endow the IDs with linguistic meanings and to
achieve personalized Transformer. Besides generating explanations, PETER can
also make recommendations, which makes it a unified model for the whole
recommendation-explanation pipeline. Extensive experiments show that our small
unpretrained model outperforms fine-tuned BERT on the generation task, in terms
of both effectiveness and efficiency, which highlights the importance and the
nice utility of our design.
- Abstract(参考訳): 自然言語生成のパーソナライゼーションは、説明可能なレコメンデーション、要約のレビュー、ダイアログシステムなど、幅広いタスクにおいて重要な役割を果たす。
これらのタスクでは、ユーザIDとアイテムIDはパーソナライズのための重要な識別子である。
しかし、強力な言語モデリング機能を備えたTransformerはパーソナライズされておらず、IDトークンが単語と同じ意味空間にないため、ユーザIDとアイテムIDを使用することができない。
この問題に対処するため,PETER (PErsonalized Transformer for Explainable Recommendation) を提案する。提案するPETERは,ターゲット説明中の単語を予測し,そのIDに言語的意味を持たせ,パーソナライズされたトランスフォーマを実現するための,シンプルで効果的な学習目標を設計する。
説明の生成に加えて、PETERはレコメンデーションを作成できるため、レコメンデーション-説明パイプライン全体の統一モデルになる。
大規模な実験により、我々の小さな未学習モデルは、効率と効率の両方の観点から、生成タスクにおいて細調整されたBERTよりも優れており、設計の重要性と有用性を強調している。
関連論文リスト
- Learnable Item Tokenization for Generative Recommendation [78.30417863309061]
LETTER (Larnable Tokenizer for generaTivE Recommendation) を提案する。
LETTERは、セマンティック正規化のためのResidual Quantized VAE、協調正規化のためのコントラストアライメント損失、コードの割り当てバイアスを軽減するための多様性損失を組み込んでいる。
論文 参考訳(メタデータ) (2024-05-12T15:49:38Z) - Vision Transformers with Natural Language Semantics [13.535916922328287]
視覚変換器(ViT)には、自然言語処理(NLP)と異なり、基本的な意味情報がない。
セマンティック・ビジョン・トランスフォーマー (Semantic Vision Transformers, SViT) は, セマンティック・インフォメーションを利用したトランスフォーマモデルである。
SViTは意味情報を効果的に活用し、畳み込みニューラルネットワークを連想させる誘導バイアスを生み出す。
論文 参考訳(メタデータ) (2024-02-27T19:54:42Z) - Part Representation Learning with Teacher-Student Decoder for Occluded
Person Re-identification [65.63180725319906]
本稿では,隠蔽者ReIDのためのTSD(Teacher-Student Decoder)フレームワークを提案する。
提案するTSDは,Parsing-aware Teacher Decoder (PTD) と標準学生デコーダ (SSD) から構成される。
論文 参考訳(メタデータ) (2023-12-15T13:54:48Z) - RELIC: Investigating Large Language Model Responses using Self-Consistency [58.63436505595177]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性を把握できる対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - Successor Features for Efficient Multisubject Controlled Text Generation [48.37713738712319]
本稿では,後継機能 (SF) と言語モデル修正の2つの基本概念を基礎とするSF-GENを紹介する。
SF-GENはこの2つをシームレスに統合し、LCMのパラメータを変更することなくテキスト生成の動的ステアリングを可能にする。
我々の知る限り、本研究はテキスト生成における後継機能の最初の応用である。
論文 参考訳(メタデータ) (2023-11-03T00:17:08Z) - Task-Adaptive Tokenization: Enhancing Long-Form Text Generation Efficacy
in Mental Health and Beyond [66.07002187192448]
本稿では,下流タスクの特定部分に生成パイプラインを適応させる手法として,タスク適応型トークン化を提案する。
専門用語を構築するための戦略を導入し、語彙統合プロトコルを導入する。
タスク適応型トークン化アプローチでは、最大60%のトークンを使用しながら、生成パフォーマンスが大幅に向上することが分かりました。
論文 参考訳(メタデータ) (2023-10-09T00:20:59Z) - Scaling Native Language Identification with Transformer Adapters [0.5330240017302619]
ネイティブ言語識別(NLI)は、個人のネイティブ言語(L1)を自動的に識別するタスクである。
トランスフォーマーデコーダ(GPT-2)に基づく最近のディープジェネレーションアプローチは、それよりも優れていた。
メモリ制限に対処するトランスフォーマーアダプタを導入し,NLIアプリケーションを実運用環境に拡張するためのトレーニング/推論速度を改善した。
論文 参考訳(メタデータ) (2022-11-18T09:40:16Z) - XDBERT: Distilling Visual Information to BERT from Cross-Modal Systems
to Improve Language Understanding [73.24847320536813]
本研究では,事前学習したマルチモーダル変換器から事前学習した言語エンコーダへの視覚情報の蒸留について検討する。
我々のフレームワークは,NLUの言語重み特性に適応するために学習目標を変更する一方で,視覚言語タスクにおけるクロスモーダルエンコーダの成功にインスパイアされている。
論文 参考訳(メタデータ) (2022-04-15T03:44:00Z) - Personalized Prompt Learning for Explainable Recommendation [46.69922623691051]
本稿では,正規化としての逐次チューニングとレコメンデーションという2つのトレーニング戦略を提案する。
当社の継続的プロンプト学習アプローチは、説明可能な推奨の3つのデータセットの強いベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2022-02-15T12:53:52Z) - Identity-Aware Multi-Sentence Video Description [105.13845996039277]
本稿では,一組のクリップ内に一貫した人物の身元を予測することを目的とした,身元確認の補助的タスクを提案する。
鍵となるコンポーネントの1つは、性別を意識したテキスト表現であり、メインモデルにおける追加の性別予測目標である。
実験の結果,提案したフィリング・イン・ザ・アイデンティティ・モデルは,いくつかのベースラインや最近の研究よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-08-22T09:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。