論文の概要: RecoBERT: A Catalog Language Model for Text-Based Recommendations
- arxiv url: http://arxiv.org/abs/2009.13292v1
- Date: Fri, 25 Sep 2020 14:23:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 22:14:11.637624
- Title: RecoBERT: A Catalog Language Model for Text-Based Recommendations
- Title(参考訳): RecoBERT: テキストベースのレコメンデーションのためのカタログ言語モデル
- Authors: Itzik Malkiel, Oren Barkan, Avi Caciularu, Noam Razin, Ori Katz and
Noam Koenigstein
- Abstract要約: RecoBERTは、テキストベースのアイテムレコメンデーションのためのカタログ化された言語モデルを学ぶためのBERTベースのアプローチである。
専門的なワインレビューに基づく類似性を用いたワインレコメンデーションのための新しい言語理解タスクを提案する。
- 参考スコア(独自算出の注目度): 32.40792615018446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language models that utilize extensive self-supervised pre-training from
unlabeled text, have recently shown to significantly advance the
state-of-the-art performance in a variety of language understanding tasks.
However, it is yet unclear if and how these recent models can be harnessed for
conducting text-based recommendations. In this work, we introduce RecoBERT, a
BERT-based approach for learning catalog-specialized language models for
text-based item recommendations. We suggest novel training and inference
procedures for scoring similarities between pairs of items, that don't require
item similarity labels. Both the training and the inference techniques were
designed to utilize the unlabeled structure of textual catalogs, and minimize
the discrepancy between them. By incorporating four scores during inference,
RecoBERT can infer text-based item-to-item similarities more accurately than
other techniques. In addition, we introduce a new language understanding task
for wine recommendations using similarities based on professional wine reviews.
As an additional contribution, we publish annotated recommendations dataset
crafted by human wine experts. Finally, we evaluate RecoBERT and compare it to
various state-of-the-art NLP models on wine and fashion recommendations tasks.
- Abstract(参考訳): ラベルなしテキストから広範囲の自己教師付き事前学習を利用する言語モデルは、近年、様々な言語理解タスクにおける最先端のパフォーマンスを著しく向上させることが示されている。
しかし、これらの最近のモデルがテキストベースのレコメンデーションにどのように役立つのか、そしてどのように活用できるかはまだ不明である。
本研究では,テキストベースの項目推薦のためのカタログ特化言語モデルを学習するためのBERTベースのアプローチであるRecoBERTを紹介する。
項目類似度ラベルを必要としない項目のペア間の類似度を評価するための新しいトレーニングと推論手順を提案する。
トレーニングと推論の両方のテクニックは、テキストカタログのラベルのない構造を利用し、それらの相違を最小限に抑えるように設計された。
推論中に4つのスコアを組み込むことで、RecoBERTは他のテクニックよりも正確にテキストベースのアイテム間類似性を推測することができる。
また,専門家のワインレビューに基づく類似性を用いたワイン推薦のための新しい言語理解タスクを提案する。
追加の貢献として,人間ワイン専門家が作成した注釈付推奨データセットを公開する。
最後に、RecoBERTを評価し、ワインやファッションレコメンデーションタスクに関する様々な最先端のNLPモデルと比較する。
関連論文リスト
- MACT: Model-Agnostic Cross-Lingual Training for Discourse Representation Structure Parsing [4.536003573070846]
意味表現解析モデルのための言語間学習戦略を導入する。
事前訓練された言語モデルにエンコードされた言語間のアライメントを利用する。
実験では、英語、ドイツ語、イタリア語、オランダ語におけるDRS節とグラフ解析の大幅な改善が示されている。
論文 参考訳(メタデータ) (2024-06-03T07:02:57Z) - A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Pre-training Language Models for Comparative Reasoning [26.161185103553635]
本稿では,テキストに対する比較推論能力を高めるための,事前学習型言語モデルのための新しいフレームワークを提案する。
本稿では,テキストに基づくエンティティ比較のためのスケーラブルなデータ収集手法を提案する。
本稿では,比較推論の新たな3つの目的を通じて,事前学習型言語モデルの枠組みを提案する。
論文 参考訳(メタデータ) (2023-05-23T18:28:42Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - MetricBERT: Text Representation Learning via Self-Supervised Triplet
Training [26.66640112616559]
MetricBERTは、よく定義された類似度メトリックにテキストを埋め込むことを学ぶ。
MetricBERTは最先端の代替品よりも優れており、時にはかなりの差がある。
論文 参考訳(メタデータ) (2022-08-13T09:52:58Z) - Interpreting Language Models Through Knowledge Graph Extraction [42.97929497661778]
BERTに基づく言語モデルを,学習過程の逐次的な段階において取得した知識のスナップショットを通じて比較する。
本稿では, クローズイン・ザ・ブランク文から知識グラフを抽出し, 知識獲得のタイムラインを提示する手法を提案する。
この分析を, BERTモデル(DistilBERT, BERT-base, RoBERTa)の事前学習変化の比較に拡張する。
論文 参考訳(メタデータ) (2021-11-16T15:18:01Z) - Pre-training Language Model Incorporating Domain-specific Heterogeneous Knowledge into A Unified Representation [49.89831914386982]
本研究では, 構造化されていないテキスト, 半構造化されたテキスト, 十分に構造化されたテキストを含む, あらゆる形式のテキストに対して, 統一された事前学習言語モデル (PLM) を提案する。
提案手法は,データの1/4のみを用いて,プレーンテキストの事前学習に優れる。
論文 参考訳(メタデータ) (2021-09-02T16:05:24Z) - A Comprehensive Comparison of Pre-training Language Models [0.5139874302398955]
私たちは、同じテキスト量と同じトレーニングステップで、トランスフォーマーベースのモデルのリストを事前トレーニングします。
実験結果から、BERTの原点における最も改善点は、短いテキスト理解のためにより文脈的な情報を取得するためにRNN層を追加することである。
論文 参考訳(メタデータ) (2021-06-22T02:12:29Z) - Context-Based Quotation Recommendation [60.93257124507105]
本稿では,新しい文脈対応引用レコメンデーションシステムを提案する。
これは、所定のソース文書から引用可能な段落とトークンの列挙リストを生成する。
音声テキストと関連するニュース記事の収集実験を行う。
論文 参考訳(メタデータ) (2020-05-17T17:49:53Z) - Coreferential Reasoning Learning for Language Representation [88.14248323659267]
本稿では,コンテキスト内でコアファーデンシャル関係をキャプチャ可能な新しい言語表現モデルCorefBERTを提案する。
実験の結果,既存のベースラインモデルと比較して,CorefBERTは下流のNLPタスクにおいて一貫した大幅な改善を達成できることがわかった。
論文 参考訳(メタデータ) (2020-04-15T03:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。