論文の概要: A Survey of Personalized Large Language Models: Progress and Future Directions
- arxiv url: http://arxiv.org/abs/2502.11528v1
- Date: Mon, 17 Feb 2025 07:58:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:11:57.985950
- Title: A Survey of Personalized Large Language Models: Progress and Future Directions
- Title(参考訳): パーソナライズされた大規模言語モデルに関する調査 : 進展と今後の方向性
- Authors: Jiahong Liu, Zexuan Qiu, Zhongyang Li, Quanyu Dai, Jieming Zhu, Minda Hu, Menglin Yang, Irwin King,
- Abstract要約: LLM(Large Language Models)は、一般的な知識タスクを扱うのに優れているが、ユーザ固有のパーソナライゼーションに苦慮している。
パーソナライズされた大規模言語モデル(PLLM)は、個々のユーザデータを活用することでこれらの課題に対処する。
PLLMは、ユーザの満足度を大幅に向上させ、会話エージェント、システム、感情認識、医療アシスタントなどの幅広い用途に応用することができる。
- 参考スコア(独自算出の注目度): 44.494796571726354
- License:
- Abstract: Large Language Models (LLMs) excel in handling general knowledge tasks, yet they struggle with user-specific personalization, such as understanding individual emotions, writing styles, and preferences. Personalized Large Language Models (PLLMs) tackle these challenges by leveraging individual user data, such as user profiles, historical dialogues, content, and interactions, to deliver responses that are contextually relevant and tailored to each user's specific needs. This is a highly valuable research topic, as PLLMs can significantly enhance user satisfaction and have broad applications in conversational agents, recommendation systems, emotion recognition, medical assistants, and more. This survey reviews recent advancements in PLLMs from three technical perspectives: prompting for personalized context (input level), finetuning for personalized adapters (model level), and alignment for personalized preferences (objective level). To provide deeper insights, we also discuss current limitations and outline several promising directions for future research. Updated information about this survey can be found at the https://github.com/JiahongLiu21/Awesome-Personalized-Large-Language-Models.
- Abstract(参考訳): LLM(Large Language Models)は、一般的な知識タスクの処理において優れているが、個々の感情の理解、書き方、好みなど、ユーザ固有のパーソナライゼーションに苦慮している。
パーソナライズされた大規模言語モデル(PLLM)は、ユーザプロファイル、履歴対話、コンテンツ、インタラクションといった個々のユーザデータを活用して、コンテキスト的に関連性があり、個々のユーザのニーズに合わせて調整された応答を提供する、これらの課題に対処する。
PLLMはユーザの満足度を大幅に向上させ、会話エージェント、レコメンデーションシステム、感情認識、医療アシスタントなど幅広い用途に応用することができるため、これは非常に貴重な研究トピックである。
本研究はPLLMの最近の進歩を、パーソナライズされたコンテキスト(インプットレベル)、パーソナライズされたアダプタ(モデルレベル)、パーソナライズされた好み(オブジェクトレベル)のアライメントの3つの技術的視点からレビューする。
より深い洞察を提供するため、現在の限界についても論じ、今後の研究に向けたいくつかの有望な方向性を概説する。
この調査に関する最新の情報は、https://github.com/JiahongLiu21/Awesome-Personalized-Large-Language-Modelsで見ることができる。
関連論文リスト
- Retrieval-Augmented Personalization for Multimodal Large Language Models [53.304699445700926]
本稿では,MLLMのパーソナライズのためのRAP(Retrieval Augmented Personalization)フレームワークを紹介する。
RAPは、外部データベースを更新することで、リアルタイムの概念編集を可能にする。
RAP-MLLMは、追加の微調整なしで無限の視覚概念に一般化することができる。
論文 参考訳(メタデータ) (2024-10-17T09:10:26Z) - Personalized Visual Instruction Tuning [30.677058613937067]
MLLM(Multimodal large language model)は、一般的な会話を行うが、特定の個人をターゲットにした対話を行うことができない。
この欠陥は、モバイルデバイスのカスタマイズされた視覚アシスタントなど、パーソナライズされた設定におけるMLLMの適用を妨げる。
我々は、MLLMが画像内のターゲット個人を識別できるように設計された新しいデータキュレーションおよびトレーニングフレームワークである、パーソナライズド・ビジュアル・インストラクション・チューニング(PVIT)を紹介する。
論文 参考訳(メタデータ) (2024-10-09T17:46:53Z) - PEFT-U: Parameter-Efficient Fine-Tuning for User Personalization [9.594958534074074]
ユーザパーソナライズのためのNLPモデルの構築と評価のための新しいデータセットであるPEFT-Uベンチマークを紹介する。
多様なユーザ中心タスクのコンテキストにおいて、LLMを効率よくパーソナライズし、ユーザ固有の嗜好に適合させるという課題について検討する。
論文 参考訳(メタデータ) (2024-07-25T14:36:18Z) - Towards Unified Multi-Modal Personalization: Large Vision-Language Models for Generative Recommendation and Beyond [87.1712108247199]
我々の目標は、マルチモーダルパーソナライゼーションシステム(UniMP)のための統一パラダイムを確立することである。
我々は、幅広いパーソナライズされたニーズに対処できる汎用的でパーソナライズされた生成フレームワークを開発する。
我々の手法は、パーソナライズされたタスクのための基礎言語モデルの能力を高める。
論文 参考訳(メタデータ) (2024-03-15T20:21:31Z) - Personalized Language Modeling from Personalized Human Feedback [45.16986573937782]
パーソナライズされた大規模言語モデル(LLM)は、個々のユーザの好みに応答するように設計されている。
個人の好みを捉えるために軽量なユーザモデルを利用する効率的なフレームワークであるPersonalized-RLHFを提案する。
P-RLHF を用いて学習したパーソナライズされた LLM は,個々のユーザの好みとより密に一致した応答を生成する。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - Knowledge-Augmented Large Language Models for Personalized Contextual
Query Suggestion [16.563311988191636]
我々は,Web上での検索と閲覧活動に基づいて,各ユーザを対象としたエンティティ中心の知識ストアを構築した。
この知識ストアは、公的な知識グラフ上の興味と知識のユーザ固有の集約予測のみを生成するため、軽量である。
論文 参考訳(メタデータ) (2023-11-10T01:18:47Z) - When Large Language Models Meet Personalization: Perspectives of
Challenges and Opportunities [60.5609416496429]
大規模言語モデルの能力は劇的に改善されている。
このような大きな飛躍的なAI能力は、パーソナライゼーションの実施方法のパターンを変えるだろう。
大規模言語モデルを汎用インターフェースとして活用することにより、パーソナライズシステムはユーザ要求を計画にコンパイルすることができる。
論文 参考訳(メタデータ) (2023-07-31T02:48:56Z) - Towards Personalized Answer Generation in E-Commerce via
Multi-Perspective Preference Modeling [62.049330405736406]
Eコマースプラットフォーム上での製品質問回答(PQA)は、インテリジェントオンラインショッピングアシスタントとして機能するため、注目を集めている。
なぜなら、多くの顧客は、自分でのみカスタマイズされた情報でパーソナライズされた回答を見たいと思っているからです。
PQAにおけるパーソナライズされた回答を生成するための,新しいマルチパースペクティブなユーザ嗜好モデルを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。