論文の概要: On the steerability of large language models toward data-driven personas
- arxiv url: http://arxiv.org/abs/2311.04978v1
- Date: Wed, 8 Nov 2023 19:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 16:56:24.550660
- Title: On the steerability of large language models toward data-driven personas
- Title(参考訳): データ駆動型ペルソナに向けた大規模言語モデルの操縦性について
- Authors: Junyi Li, Ninareh Mehrabi, Charith Peris, Palash Goyal, Kai-Wei Chang,
Aram Galstyan, Richard Zemel, Rahul Gupta
- Abstract要約: 協調フィルタリングに基づくデータ駆動型ペルソナ定義手法を提案する。
ユーザの連続表現を仮想トークンのシーケンスにマッピングするために,ソフトプロンプトモデルを学ぶ。
以上の結果から,本アルゴリズムはベースラインの収集よりも性能が優れていることがわかった。
- 参考スコア(独自算出の注目度): 103.17413190093366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent surge in Large Language Model (LLM) related applications has led
to a concurrent escalation in expectations for LLMs to accommodate a myriad of
personas and encompass a broad spectrum of perspectives. An important first
step towards addressing this demand is to align language models with specific
personas, be it groups of users or individuals. Towards this goal, we first
present a new conceptualization of a persona. Moving beyond the traditional
reliance on demographics like age, gender, or political party affiliation, we
introduce a data-driven persona definition methodology built on
collaborative-filtering. In this methodology, users are embedded into a
continuous vector space based on their opinions and clustered into cohorts that
manifest coherent views across specific inquiries. This methodology allows for
a more nuanced understanding of different latent social groups present in the
overall population (as opposed to simply using demographic groups) and enhances
the applicability of model steerability. Finally, we present an efficient
method to steer LLMs towards a particular persona. We learn a soft-prompting
model to map the continuous representation of users into sequences of virtual
tokens which, when prepended to the LLM input, enables the LLM to produce
responses aligned with a given user. Our results show that our steerability
algorithm is superior in performance compared to a collection of baselines.
- Abstract(参考訳): 近年のLarge Language Model (LLM) 関連アプリケーションの増加により、LLMがペルソナを多用し、幅広い視点を包含するという期待が同時にエスカレーションされている。
この需要に対応するための重要な第一歩は、言語モデルを特定のペルソナ、例えばユーザや個人のグループと整合させることです。
この目的に向けて,まずペルソナの新たな概念化を提示する。
年齢、性別、政党関係といった伝統的な人口動態への依存を超えて、協調フィルタリングに基づくデータ駆動型ペルソナ定義手法を導入する。
この手法では,ユーザは意見に基づいて連続ベクトル空間に埋め込まれ,コホートにクラスタ化され,特定の質問に対して一貫性のある視点を示す。
この手法により、(単に人口統計グループを使うのではなく)人口全体に存在する異なる潜在社会集団をより微妙に理解することができ、モデルステアビリティの適用性を高めることができる。
最後に,LLMを特定のペルソナに対して効率的に操る手法を提案する。
ユーザの連続表現を仮想トークンのシーケンスにマッピングするソフトプロンプトモデルを学習し、LLM入力に先立ってLLMが所定のユーザに対応する応答を生成することを可能にする。
その結果,本アルゴリズムはベースライン群に比べて性能が優れていることがわかった。
関連論文リスト
- Self-Play Fine-Tuning Converts Weak Language Models to Strong Language
Models [56.84735912476625]
本稿では,SPIN(Self-Play fIne-tuNing)と呼ばれるファインチューニング手法を提案する。
SPINの中心には自己再生機構があり、LLMは自身のインスタンスと対戦することでその能力を洗練させる。
このことは、自己プレイの約束に光を当て、熟練した相手を必要とせずに、LSMにおける人間レベルのパフォーマンスの達成を可能にする。
論文 参考訳(メタデータ) (2024-01-02T18:53:13Z) - Large Language Models for Intent-Driven Session Recommendations [34.64421003286209]
大規模言語モデル(LLM)の高度な推論機能を活用した新しいISR手法を提案する。
本稿では,プロンプトを反復的に自己表現し,調整するイノベーティブなプロンプト最適化機構を提案する。
この新たなパラダイムは、LLMに対して、さまざまなユーザ意図をセマンティックレベルで識別する権限を与え、より正確で解釈可能なセッションレコメンデーションをもたらす。
論文 参考訳(メタデータ) (2023-12-07T02:25:14Z) - Nash Learning from Human Feedback [80.86423717860141]
ペアワイズフィードバックを用いた大規模言語モデルの微調整のための代替パイプラインを提案する。
我々はこのアプローチを人間のフィードバックからナッシュラーニング(NLHF)と呼ぶ。
ミラー降下原理に基づく新しいアルゴリズム解であるNash-MDを提案する。
論文 参考訳(メタデータ) (2023-12-01T19:26:23Z) - LALM: Long-Term Action Anticipation with Language Models [74.10147822693791]
言語モデル(LALM)を用いた長期的行動予測のための新しいアプローチを提案する。
本手法は,従来の行動系列を追跡する行動認識モデルと,関連する環境の詳細を記述するための視覚言語モデルを含む。
実験の結果、LALMは長期的な行動予測のタスクにおいて最先端の手法を超越していることが示された。
論文 参考訳(メタデータ) (2023-11-29T02:17:27Z) - Integrating Summarization and Retrieval for Enhanced Personalization via
Large Language Models [11.950478880423733]
パーソナライゼーションは自然言語処理(NLP)システムにおけるユーザエクスペリエンスにおいて重要な要素である。
LLM(Large Language Models)の出現によって、重要な疑問は、これらのモデルを使ってユーザエクスペリエンスをよりパーソナライズする方法である。
LLMが生成するタスク対応ユーザ要約を用いた,新しい要約型パーソナライゼーションを提案する。
論文 参考訳(メタデータ) (2023-10-30T23:40:41Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Aligning Language Models to User Opinions [10.953326025836475]
ユーザの意見や人口統計やイデオロギーが相互予測者ではないことが判明した。
ユーザの意見とユーザ人口、イデオロギーの両方をモデル化することで、LCMを整合させる。
人口統計学とイデオロギーを併用したLCMの典型的なアプローチに加えて,個人ユーザからの最も関連性の高い過去の意見を活用すれば,より正確なユーザ意見の予測が可能になることが判明した。
論文 参考訳(メタデータ) (2023-05-24T09:11:11Z) - Do LLMs Understand User Preferences? Evaluating LLMs On User Rating
Prediction [15.793007223588672]
大規模言語モデル(LLM)は、ゼロショットまたは少数ショットの方法で新しいタスクに一般化する際、例外的な機能を示した。
我々は,2億5000万から540Bのパラメータを多種多様なサイズで検討し,その性能をゼロショット,少数ショット,微調整のシナリオで評価した。
論文 参考訳(メタデータ) (2023-05-10T21:43:42Z) - The Minority Matters: A Diversity-Promoting Collaborative Metric
Learning Algorithm [154.47590401735323]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。