論文の概要: Step-Back Profiling: Distilling User History for Personalized Scientific Writing
- arxiv url: http://arxiv.org/abs/2406.14275v1
- Date: Thu, 20 Jun 2024 12:58:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 13:42:16.095723
- Title: Step-Back Profiling: Distilling User History for Personalized Scientific Writing
- Title(参考訳): ステップバックプロファイリング:パーソナライズされた科学書記のためのユーザ履歴の蒸留
- Authors: Xiangru Tang, Xingyao Zhang, Yanjun Shao, Jie Wu, Yilun Zhao, Arman Cohan, Ming Gong, Dongmei Zhang, Mark Gerstein,
- Abstract要約: 大規模言語モデル(LLM)をパーソナライズするためのステップバックプロファイリングを導入する。
共同執筆のためのステップバックプロファイリングによるユーザ特性のキャプチャの有効性を実証する。
我々のアプローチは、一般パーソナライズベンチマーク(LaMP)において、ベースラインを最大3.6ポイント向上させる。
- 参考スコア(独自算出の注目度): 50.481041470669766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) excel at a variety of natural language processing tasks, yet they struggle to generate personalized content for individuals, particularly in real-world scenarios like scientific writing. Addressing this challenge, we introduce Step-Back Profiling to personalize LLMs by distilling user history into concise profiles, including essential traits and preferences of users. Regarding our experiments, we construct a Personalized Scientific Writing (PSW) dataset to study multiuser personalization. PSW requires the models to write scientific papers given specialized author groups with diverse academic backgrounds. As for the results, we demonstrate the effectiveness of capturing user characteristics via Step-Back Profiling for collaborative writing. Moreover, our approach outperforms the baselines by up to 3.6 points on the general personalization benchmark (LaMP), including 7 personalization LLM tasks. Our extensive ablation studies validate the contributions of different components in our method and provide insights into our task definition. Our dataset and code are available at \url{https://github.com/gersteinlab/step-back-profiling}.
- Abstract(参考訳): 大きな言語モデル(LLM)は、様々な自然言語処理タスクに優れていますが、特に科学的な記述のような現実のシナリオにおいて、個人のためにパーソナライズされたコンテンツを生成するのに苦労しています。
この課題に対処するために、ユーザ履歴を簡潔なプロファイルに抽出し、ユーザの本質的な特徴や好みを含むLCMをパーソナライズするステップバックプロファイリングを導入する。
実験では、マルチユーザパーソナライゼーションを研究するために、パーソナライズド・サイエント・ライティング(PSW)データセットを構築した。
PSWは、様々な学術的背景を持つ専門的な著者グループに与えられた科学論文を書くためにモデルを必要とする。
その結果,共同作成のためのStep-Back Profilingによるユーザ特性のキャプチャの有効性を実証した。
さらに,7つのパーソナライズLDMタスクを含む一般パーソナライズベンチマーク(LaMP)において,ベースラインを最大3.6ポイント向上させる。
広範囲にわたるアブレーション研究は、我々の方法における様々なコンポーネントの貢献を検証し、タスク定義に対する洞察を提供する。
データセットとコードは、 \url{https://github.com/gersteinlab/step-back-profiling}で利用可能です。
関連論文リスト
- Optimizing Data Delivery: Insights from User Preferences on Visuals, Tables, and Text [59.68239795065175]
ユーザが質問を提示するユーザスタディを実施し、何を見たいのかを尋ねます。
ユーザの個人的特性が、彼らが好むデータ出力に影響を与えることを確認するために、このデータを使用します。
論文 参考訳(メタデータ) (2024-11-12T00:24:31Z) - Personalization of Large Language Models: A Survey [131.00650432814268]
大規模言語モデル(LLM)のパーソナライゼーションは、最近、広範囲のアプリケーションでますます重要になっている。
パーソナライズ LLM に関する既存の研究の多くは、(a)パーソナライズされたテキスト生成、または(b)レコメンデーションシステムのようなパーソナライズに関連する下流アプリケーションに LLM を活用することに集中している。
パーソナライズされたLSM使用のための分類を導入し、主要な違いと課題を要約する。
論文 参考訳(メタデータ) (2024-10-29T04:01:11Z) - PersonalSum: A User-Subjective Guided Personalized Summarization Dataset for Large Language Models [3.516029765200171]
我々はPersonalSumと呼ばれる高品質でパーソナライズされた手作業による要約データセットを提案する。
このデータセットは、公開読者の焦点が、大規模言語モデルによって生成された一般的な要約と異なるかどうかを調査する最初のものである。
論文 参考訳(メタデータ) (2024-10-04T20:12:39Z) - Guided Profile Generation Improves Personalization with LLMs [3.2685922749445617]
勧告、ランク付け、Eコマースプラットフォームを含む現代の商業システムでは、パーソナライズコンテキストを大型言語モデル(LLM)への入力として取り入れる傾向にある。
本稿では,自然言語で個人プロファイルを生成するための汎用手法であるGPGを提案する。
実験の結果,GAGはLLMのパーソナライズ能力を向上させることが示され,例えば,LLMを生の個人的コンテキストで直接供給するよりも,個人の嗜好を予測する上で37%の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-09-19T21:29:56Z) - LLMs + Persona-Plug = Personalized LLMs [41.60364110693824]
パーソナライゼーションは多くの言語タスクやアプリケーションにおいて重要な役割を担っている。
これにより、大きな言語モデル(LLM)を適用して、ユーザの好みに合わせてカスタマイズされたアウトプットを生成する、さまざまなパーソナライズされたアプローチが開発された。
そこで我々は,LLMモデルを提案する。軽量なプラグインユーザ埋め込みモジュールを用いて,過去の状況をすべてモデル化し,個人毎のユーザ固有の埋め込みを構築する。
論文 参考訳(メタデータ) (2024-09-18T11:54:45Z) - Evaluating Large Language Model based Personal Information Extraction and Countermeasures [63.91918057570824]
大規模言語モデル(LLM)は、攻撃者が個人プロファイルから様々な個人情報を正確に抽出するために誤用することができる。
LLMはそのような抽出において従来の方法より優れている。
即時注射は、そのようなリスクを広範囲に軽減し、従来の対策より優れている。
論文 参考訳(メタデータ) (2024-08-14T04:49:30Z) - PerPLM: Personalized Fine-tuning of Pretrained Language Models via
Writer-specific Intermediate Learning and Prompts [16.59511985633798]
事前訓練言語モデル(PLM)はコンテキストをキャプチャするための強力なツールである。
PLMは通常、様々な作家の間で広く使われるように訓練され、微調整されている。
本研究では, PLMの微調整を具体化することで, テキスト理解タスクの精度を向上させることを目的とする。
論文 参考訳(メタデータ) (2023-09-14T14:03:48Z) - LaMP: When Large Language Models Meet Personalization [35.813652110400064]
本稿では,大規模言語モデルにおけるパーソナライズの重要性を強調し,LaMPベンチマークを導入する。
LaMPは、パーソナライズされた出力を生成するための言語モデルのトレーニングと評価のための新しいベンチマークである。
論文 参考訳(メタデータ) (2023-04-22T13:42:04Z) - Unsupervised Neural Stylistic Text Generation using Transfer learning
and Adapters [66.17039929803933]
応答生成のためのスタイル特化属性を学習するために,モデルパラメータの0.3%しか更新しない新しい転送学習フレームワークを提案する。
我々はPERSONALITY-CAPTIONSデータセットからスタイル固有の属性を学習する。
論文 参考訳(メタデータ) (2022-10-07T00:09:22Z) - PART: Pre-trained Authorship Representation Transformer [64.78260098263489]
文書を書く著者は、語彙、レジストリ、句読点、ミススペル、絵文字の使用など、テキスト内での識別情報をインプリントする。
以前の作品では、手作りのフィーチャや分類タスクを使用して著者モデルをトレーニングし、ドメイン外の著者に対するパフォーマンスの低下につながった。
セマンティクスの代わりにtextbfauthorship の埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。