論文の概要: Using Interventions to Improve Out-of-Distribution Generalization of
Text-Matching Recommendation Systems
- arxiv url: http://arxiv.org/abs/2210.10636v2
- Date: Wed, 14 Jun 2023 10:17:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 03:25:43.290214
- Title: Using Interventions to Improve Out-of-Distribution Generalization of
Text-Matching Recommendation Systems
- Title(参考訳): テキストマッチングレコメンデーションシステムのアウトオブディストリビューション一般化のための介入の利用
- Authors: Parikshit Bansal, Yashoteja Prabhu, Emre Kiciman, Amit Sharma
- Abstract要約: ペア化アイテム関連データに基づく大規模ベース言語モデルの微調整は、一般化には非生産的である。
製品レコメンデーションタスクでは、新しいカテゴリや将来的な期間の項目を推薦する場合、ファインチューニングはベースモデルよりも精度が低い。
本稿では,モデルの関連性スコアに対するトークンの因果的影響を制限する介入ベース正規化器を提案する。
- 参考スコア(独自算出の注目度): 14.363532867533012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given a user's input text, text-matching recommender systems output relevant
items by comparing the input text to available items' description, such as
product-to-product recommendation on e-commerce platforms. As users' interests
and item inventory are expected to change, it is important for a text-matching
system to generalize to data shifts, a task known as out-of-distribution (OOD)
generalization. However, we find that the popular approach of fine-tuning a
large, base language model on paired item relevance data (e.g., user clicks)
can be counter-productive for OOD generalization. For a product recommendation
task, fine-tuning obtains worse accuracy than the base model when recommending
items in a new category or for a future time period. To explain this
generalization failure, we consider an intervention-based importance metric,
which shows that a fine-tuned model captures spurious correlations and fails to
learn the causal features that determine the relevance between any two text
inputs. Moreover, standard methods for causal regularization do not apply in
this setting, because unlike in images, there exist no universally spurious
features in a text-matching task (the same token may be spurious or causal
depending on the text it is being matched to). For OOD generalization on text
inputs, therefore, we highlight a different goal: avoiding high importance
scores for certain features. We do so using an intervention-based regularizer
that constraints the causal effect of any token on the model's relevance score
to be similar to the base model. Results on Amazon product and 3 question
recommendation datasets show that our proposed regularizer improves
generalization for both in-distribution and OOD evaluation, especially in
difficult scenarios when the base model is not accurate.
- Abstract(参考訳): ユーザの入力テキストが与えられた場合、テキストマッチングレコメンダシステムは、eコマースプラットフォームにおける製品間レコメンデーションなど、入力テキストと利用可能なアイテムの説明を比較して関連項目を出力する。
ユーザの関心や項目のインベントリが変化すると期待されているため、テキストマッチングシステムがデータシフト(out-of-distribution (ood) generalization)と呼ばれるタスクに一般化することが重要である。
しかし、ペアアイテム関連データ(例えば、ユーザークリック)上で大きなベース言語モデルを微調整する一般的なアプローチは、ood一般化の逆生成的であることがわかった。
製品レコメンデーションタスクでは、新しいカテゴリや将来の期間の項目を推奨する場合、微調整はベースモデルよりも精度が悪くなる。
この一般化の失敗を説明するために、微調整されたモデルが散発的な相関を捉え、2つのテキスト入力間の関連性を決定する因果的特徴を学習できないことを示す、介入に基づく重要度指標を考える。
また、この設定では因果規則化の標準的な手法は適用されないが、画像とは異なり、テキストマッチングタスクには普遍的にスプリアスな特徴が存在しない(同じトークンがマッチしているテキストによってスプリアスか因果的になる可能性がある)。
そこで本研究では,テキスト入力におけるOOD一般化について,特定の特徴に対する高い重要点の回避という,異なる目標を掲げる。
これは、モデルの関連度スコアに対するトークンの因果効果を、ベースモデルに類似するように制約する介入ベースの正規化器を使用します。
amazon製品と3つの質問推奨データセットの結果から,提案する正規化器は,特にベースモデルが正確でない場合の難解なシナリオにおいて,分布内評価とood評価の両方の一般化を改善できることが分かる。
関連論文リスト
- Disentangling Likes and Dislikes in Personalized Generative Explainable Recommendation [26.214148426964794]
ユーザの感情に焦点をあてた新しいデータセットと評価手法を導入する。
購入後のレビューから,ユーザの肯定的,否定的な意見を明示的に抽出し,データセットを構築する。
生成した説明文がユーザの感情に合致するかどうかに基づいてシステムを評価することを提案する。
論文 参考訳(メタデータ) (2024-10-17T06:15:00Z) - JPAVE: A Generation and Classification-based Model for Joint Product
Attribute Prediction and Value Extraction [59.94977231327573]
JPAVEと呼ばれる値生成/分類と属性予測を備えたマルチタスク学習モデルを提案する。
我々のモデルの2つの変種は、オープンワールドとクローズドワールドのシナリオのために設計されている。
公開データセットにおける実験結果は,強いベースラインと比較して,我々のモデルが優れていることを示す。
論文 参考訳(メタデータ) (2023-11-07T18:36:16Z) - Text Matching Improves Sequential Recommendation by Reducing Popularity
Biases [48.272381505993366]
TASTEは、アイテムの識別子と属性を使用して、アイテムとユーザとイテムのインタラクションを言語化する。
実験の結果,TASTEはシーケンシャルレコメンデーションデータセットにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-08-27T07:44:33Z) - SWING: Balancing Coverage and Faithfulness for Dialogue Summarization [67.76393867114923]
本稿では,自然言語推論(NLI)モデルを用いて,事実の不整合を回避し,カバレッジを向上させることを提案する。
我々は、NLIを用いて詳細なトレーニング信号を計算し、モデルがカバーされていない参照サマリーのコンテンツを生成することを奨励する。
DialogSumおよびSAMSumデータセットの実験により,提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2023-01-25T09:33:11Z) - SMART: Sentences as Basic Units for Text Evaluation [48.5999587529085]
本稿では,このような制約を緩和するSMARTと呼ばれる新しい指標を提案する。
文をトークンの代わりにマッチングの基本単位として扱い,ソフトマッチ候補と参照文に文マッチング関数を用いる。
この結果から,提案手法とモデルベースマッチング関数とのシステムレベルの相関は,全ての競合する指標よりも優れていた。
論文 参考訳(メタデータ) (2022-08-01T17:58:05Z) - Sequential Recommendation via Stochastic Self-Attention [68.52192964559829]
Transformerベースのアプローチでは、アイテムをベクトルとして埋め込んで、ドット積の自己アテンションを使用してアイテム間の関係を測定する。
本稿では,これらの問題を克服するための新しいtextbfStochastic textbfSelf-textbfAttention (STOSA) を提案する。
我々は、アイテムと項目の位置関係を列で特徴づける新しいワッサースタイン自己保持モジュールを考案した。
論文 参考訳(メタデータ) (2022-01-16T12:38:45Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。