論文の概要: Improving RAG for Personalization with Author Features and Contrastive Examples
- arxiv url: http://arxiv.org/abs/2504.08745v1
- Date: Mon, 24 Mar 2025 01:41:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-20 06:33:26.302243
- Title: Improving RAG for Personalization with Author Features and Contrastive Examples
- Title(参考訳): 著者の特徴と対比例によるパーソナライズのためのRAGの改善
- Authors: Mert Yazan, Suzan Verberne, Frederik Situmeang,
- Abstract要約: 検索強化世代(RAG)によるパーソナライゼーションは、しばしば著者の細かい特徴を捉えるのに失敗する。
コントラスト例を紹介する: 他の著者の文書は、LLMが著者のスタイルを他と比較してユニークなものにしているかを特定するのに役立ちます。
以上の結果から,RAGと相補的なコントラスト例を含む新たな研究領域を開拓しつつ,パーソナライゼーション向上のための細粒度機能の価値が示唆された。
- 参考スコア(独自算出の注目度): 2.6968321526169503
- License:
- Abstract: Personalization with retrieval-augmented generation (RAG) often fails to capture fine-grained features of authors, making it hard to identify their unique traits. To enrich the RAG context, we propose providing Large Language Models (LLMs) with author-specific features, such as average sentiment polarity and frequently used words, in addition to past samples from the author's profile. We introduce a new feature called Contrastive Examples: documents from other authors are retrieved to help LLM identify what makes an author's style unique in comparison to others. Our experiments show that adding a couple of sentences about the named entities, dependency patterns, and words a person uses frequently significantly improves personalized text generation. Combining features with contrastive examples boosts the performance further, achieving a relative 15% improvement over baseline RAG while outperforming the benchmarks. Our results show the value of fine-grained features for better personalization, while opening a new research dimension for including contrastive examples as a complement with RAG. We release our code publicly.
- Abstract(参考訳): 検索強化世代(RAG)によるパーソナライゼーションは、しばしば著者の細かい特徴を捉えるのに失敗し、個々の特徴を特定するのが難しくなる。
RAGコンテキストを充実させるために、著者のプロフィールから過去のサンプルに加えて、平均感情極性や頻繁に使用される単語といった著者特有の特徴を持つLarge Language Models (LLM)を提案する。
コントラスト例(Contrastive Examples)と呼ばれる新機能を紹介します: 他の著者からの文書は、LCMが他の著者と比較して作者のスタイルをユニークなものにしているかを特定するのに役立ちます。
実験の結果、名前付きエンティティ、依存関係パターン、単語に関する2つの文を追加すると、パーソナライズされたテキスト生成が大幅に改善されることがわかった。
機能と対照的な例を組み合わせることで、パフォーマンスがさらに向上し、ベンチマークを上回りながら、ベースラインRAGよりも15%改善されている。
以上の結果から,RAGと相補的なコントラスト例を含む新たな研究領域を開拓しつつ,パーソナライゼーション向上のための細粒度機能の価値が示唆された。
コードを公開しています。
関連論文リスト
- Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - Detecting Document-level Paraphrased Machine Generated Content: Mimicking Human Writing Style and Involving Discourse Features [57.34477506004105]
機械生成コンテンツは、学術プラジャリズムや誤報の拡散といった課題を提起する。
これらの課題を克服するために、新しい方法論とデータセットを導入します。
人間の筆記スタイルをエミュレートするエンコーダデコーダモデルであるMhBARTを提案する。
また,PDTB前処理による談話解析を統合し,構造的特徴を符号化するモデルであるDTransformerを提案する。
論文 参考訳(メタデータ) (2024-12-17T08:47:41Z) - LLM-Ref: Enhancing Reference Handling in Technical Writing with Large Language Models [4.1180254968265055]
LLM-Refは、研究者が複数のソース文書から記事を書くのを補助する記述支援ツールである。
チャンキングとインデックスを使用する従来のRAGシステムとは異なり、私たちのツールはテキスト段落から直接コンテンツを検索し、生成します。
我々の手法は、RAGシステムの正確で関連性があり、文脈的に適切な応答を生成する能力の全体像を提供する総合的な指標である、Ragasスコアの3.25タイムから6.26タイムの上昇を達成する。
論文 参考訳(メタデータ) (2024-11-01T01:11:58Z) - Unleashing the Potential of Text-attributed Graphs: Automatic Relation Decomposition via Large Language Models [31.443478448031886]
RoSE (Relation-oriented Semantic Edge-Decomposition) は、生のテキスト属性を分析してグラフ構造を分解する新しいフレームワークである。
我々のフレームワークは、さまざまなデータセットのノード分類性能を大幅に向上させ、ウィスコンシンデータセットでは最大16%の改善を実現した。
論文 参考訳(メタデータ) (2024-05-28T20:54:47Z) - Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Unveiling the Multi-Annotation Process: Examining the Influence of
Annotation Quantity and Instance Difficulty on Model Performance [1.7343894615131372]
データセットがインスタンス毎にひとつのアノテーションから複数のアノテーションに拡張された場合、パフォーマンススコアがどのように変化するかを示す。
アノテーション予算の異なるデータセットを生成するための,新しいマルチアノテーションシミュレーションプロセスを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:12:41Z) - ParaAMR: A Large-Scale Syntactically Diverse Paraphrase Dataset by AMR
Back-Translation [59.91139600152296]
ParaAMRは、抽象的な表現のバックトランスレーションによって生成される、大規模な構文的に多様なパラフレーズデータセットである。
そこで本研究では,ParaAMRを用いて文の埋め込み学習,構文的に制御されたパラフレーズ生成,数ショット学習のためのデータ拡張という,3つのNLPタスクを改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-26T02:27:33Z) - Finding Support Examples for In-Context Learning [73.90376920653507]
本稿では,この課題を2段階に解決するためのfilter-thEN-Search法であるLENSを提案する。
まず、データセットをフィルタリングして、個別に情報的インコンテキストの例を得る。
そこで本研究では,反復的に改良し,選択したサンプル順列を評価可能な多様性誘導型サンプル探索を提案する。
論文 参考訳(メタデータ) (2023-02-27T06:32:45Z) - IGA : An Intent-Guided Authoring Assistant [37.98368621931934]
我々は、言語モデリングの進歩を活用して、著者仕様に従ってテキストを生成し、言い換えるインタラクティブな書き込みアシスタントを構築する。
Intent-Guided Assistant (IGA)への入力は、特定の修辞的な指示に対応するタグが散在するテキスト形式で提供される。
我々は、データセットでラベル付けされた著者意図で言語モデルを微調整し、IGAがこれらのタグに生成したテキストを埋めて、ユーザが自分の好きなように編集できるようにする。
論文 参考訳(メタデータ) (2021-04-14T17:32:21Z) - Generation-Augmented Retrieval for Open-domain Question Answering [134.27768711201202]
GAR(Generation-Augmented Retrieval)は、オープンドメインの質問に答える機能である。
クエリーに対して多様なコンテキストを生成することは、結果の融合が常により良い検索精度をもたらすので有益であることを示す。
GARは、抽出読取装置を備えた場合、抽出QA設定の下で、自然質問およびトリビアQAデータセットの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-09-17T23:08:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。