論文の概要: Factual and Informative Review Generation for Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2209.12613v2
- Date: Wed, 28 Sep 2022 04:37:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 23:40:55.774556
- Title: Factual and Informative Review Generation for Explainable Recommendation
- Title(参考訳): 説明可能なレコメンデーションのためのFactual and Informative Review Generation
- Authors: Zhouhang Xie, Sameer Singh, Julian McAuley and Bodhisattwa Prasad
Majumder
- Abstract要約: 先行モデルの生成されたコンテンツは、しばしば事実の幻覚を含む。
提案手法は,検索したコンテンツと生成のためのパラメトリック知識の併用による最近の成功にインスパイアされ,パーソナライズされた検索機能を備えたジェネレータを提案する。
Yelp、TripAdvisor、Amazon Movie Reviewsのデータセットでの実験は、我々のモデルが既存のレビューをより確実に複雑にし、より多様性があり、人間の評価者によってより有益であると評価された説明を生成できることを示している。
- 参考スコア(独自算出の注目度): 41.403493319602816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent models can generate fluent and grammatical synthetic reviews while
accurately predicting user ratings. The generated reviews, expressing users'
estimated opinions towards related products, are often viewed as natural
language 'rationales' for the jointly predicted rating. However, previous
studies found that existing models often generate repetitive, universally
applicable, and generic explanations, resulting in uninformative rationales.
Further, our analysis shows that previous models' generated content often
contain factual hallucinations. These issues call for novel solutions that
could generate both informative and factually grounded explanations. Inspired
by recent success in using retrieved content in addition to parametric
knowledge for generation, we propose to augment the generator with a
personalized retriever, where the retriever's output serves as external
knowledge for enhancing the generator. Experiments on Yelp, TripAdvisor, and
Amazon Movie Reviews dataset show our model could generate explanations that
more reliably entail existing reviews, are more diverse, and are rated more
informative by human evaluators.
- Abstract(参考訳): 最近のモデルでは、ユーザの評価を正確に予測しながら、フルーエントで文法的な合成レビューを生成することができる。
生成したレビューは、関連する製品に対するユーザの推定意見を表現し、共同で予測された評価のための自然言語「合理化」と見なされることが多い。
しかし、以前の研究では、既存のモデルはしばしば反復的、普遍的に適用可能、そして一般的な説明を生成し、非形式的理性をもたらすことが判明した。
さらに, 過去のモデルが生成した内容は, 事実の幻覚を含むことが多い。
これらの問題は、情報と事実の両方に根拠のある説明を生み出す新しい解を求める。
生成のためのパラメトリック知識に加えて,検索コンテンツを用いた最近の成功に触発されて,検索者のアウトプットが外部知識として機能するパーソナライズされたレトリビュータによるジェネレータの拡張を提案する。
Yelp、TripAdvisor、Amazon Movie Reviewsのデータセットでの実験は、我々のモデルが既存のレビューをより確実に複雑にし、より多様性があり、人間の評価者によってより有益であると評価された説明を生成できることを示している。
関連論文リスト
- MAPLE: Enhancing Review Generation with Multi-Aspect Prompt LEarning in Explainable Recommendation [12.874105550787514]
我々は、MAPLE(Multi-Aspect Prompt LEarner)と呼ばれるパーソナライズされたアスペクト制御モデルを提案する。
レストランドメインにおける2つの実世界レビューデータセットの実験は、MAPLEがテキストの観点からベースラインレビュー生成モデルより優れていることを示している。
論文 参考訳(メタデータ) (2024-08-19T10:12:52Z) - EvalCrafter: Benchmarking and Evaluating Large Video Generation Models [70.19437817951673]
これらのモデルはしばしば、マルチアスペクト能力を持つ非常に大きなデータセットで訓練されているので、単純な指標から大きな条件生成モデルを判断することは困難である、と我々は主張する。
我々のアプローチは、テキスト・ツー・ビデオ生成のための700のプロンプトの多種多様な包括的リストを作成することである。
そこで我々は、視覚的品質、コンテンツ品質、動作品質、テキスト・ビデオアライメントの観点から、慎重に設計されたベンチマークに基づいて、最先端のビデオ生成モデルを評価する。
論文 参考訳(メタデータ) (2023-10-17T17:50:46Z) - Bridging the Gap: A Survey on Integrating (Human) Feedback for Natural
Language Generation [68.9440575276396]
この調査は、人間のフィードバックを利用して自然言語生成を改善した最近の研究の概要を提供することを目的としている。
まず、フィードバックの形式化を包括的に導入し、この形式化に続いて既存の分類学研究を特定・整理する。
第二に、フィードバックを形式や目的によってどのように記述するかを議論し、フィードバック(トレーニングやデコード)を直接使用したり、フィードバックモデルをトレーニングしたりするための2つのアプローチについて取り上げる。
第3に、AIフィードバックの生まれたばかりの分野の概要を紹介します。これは、大きな言語モデルを利用して、一連の原則に基づいて判断し、必要最小限にします。
論文 参考訳(メタデータ) (2023-05-01T17:36:06Z) - On Faithfulness and Coherence of Language Explanations for
Recommendation Systems [8.143715142450876]
この研究は、最先端モデルとそのレビュー生成コンポーネントを探索する。
得られた説明は不安定であり, 推定評価の合理的な根拠として考える前に, さらなる評価が必要であることを示す。
論文 参考訳(メタデータ) (2022-09-12T17:00:31Z) - Dynamic Review-based Recommenders [1.5427245397603195]
我々は、レビュー生成の因果関係を尊重する評価予測を強化するために、レビューの既知の力を活用している。
我々の表現は時間間隔で認識されるので、力学の連続した時間表現が得られる。
論文 参考訳(メタデータ) (2021-10-27T20:17:47Z) - Can We Automate Scientific Reviewing? [89.50052670307434]
我々は、最先端自然言語処理(NLP)モデルを用いて、科学論文の第一パスピアレビューを生成する可能性について論じる。
我々は、機械学習領域で論文のデータセットを収集し、各レビューでカバーされているさまざまなコンテンツに注釈を付け、レビューを生成するために論文を取り込み、ターゲットの要約モデルを訓練する。
総合的な実験結果から、システム生成レビューは、人間によるレビューよりも、論文の多くの側面に触れる傾向にあることが示された。
論文 参考訳(メタデータ) (2021-01-30T07:16:53Z) - E-commerce Query-based Generation based on User Review [1.484852576248587]
本稿では,従来のユーザによるレビューに基づいて,ユーザの質問に対する回答を生成するための新しいセク2seqベースのテキスト生成モデルを提案する。
ユーザの質問や感情の極性が与えられた場合,関心事の側面を抽出し,過去のユーザレビューを要約した回答を生成する。
論文 参考訳(メタデータ) (2020-11-11T04:58:31Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Context-aware Helpfulness Prediction for Online Product Reviews [34.47368084659301]
本稿では,レビューの有用性を評価するニューラルディープ・ラーニング・モデルを提案する。
このモデルは畳み込みニューラルネットワーク(CNN)とコンテキスト認識符号化機構に基づいている。
我々は、人間の注釈付きデータセット上でモデルを検証し、その結果、既存のモデルよりも有益性予測に優れていたことを示す。
論文 参考訳(メタデータ) (2020-04-27T18:19:26Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。