論文の概要: When Large Language Models Meet Personalization: Perspectives of
Challenges and Opportunities
- arxiv url: http://arxiv.org/abs/2307.16376v1
- Date: Mon, 31 Jul 2023 02:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 15:58:29.454696
- Title: When Large Language Models Meet Personalization: Perspectives of
Challenges and Opportunities
- Title(参考訳): 大きな言語モデルがパーソナライゼーションを満たすとき:課題と機会の視点
- Authors: Jin Chen, Zheng Liu, Xu Huang, Chenwang Wu, Qi Liu, Gangwei Jiang,
Yuanhao Pu, Yuxuan Lei, Xiaolong Chen, Xingmei Wang, Defu Lian and Enhong
Chen
- Abstract要約: 大規模言語モデルの能力は劇的に改善されている。
このような大きな飛躍的なAI能力は、パーソナライゼーションの実施方法のパターンを変えるだろう。
大規模言語モデルを汎用インターフェースとして活用することにより、パーソナライズシステムはユーザ要求を計画にコンパイルすることができる。
- 参考スコア(独自算出の注目度): 60.5609416496429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of large language models marks a revolutionary breakthrough in
artificial intelligence. With the unprecedented scale of training and model
parameters, the capability of large language models has been dramatically
improved, leading to human-like performances in understanding, language
synthesizing, and common-sense reasoning, etc. Such a major leap-forward in
general AI capacity will change the pattern of how personalization is
conducted. For one thing, it will reform the way of interaction between humans
and personalization systems. Instead of being a passive medium of information
filtering, large language models present the foundation for active user
engagement. On top of such a new foundation, user requests can be proactively
explored, and user's required information can be delivered in a natural and
explainable way. For another thing, it will also considerably expand the scope
of personalization, making it grow from the sole function of collecting
personalized information to the compound function of providing personalized
services. By leveraging large language models as general-purpose interface, the
personalization systems may compile user requests into plans, calls the
functions of external tools to execute the plans, and integrate the tools'
outputs to complete the end-to-end personalization tasks. Today, large language
models are still being developed, whereas the application in personalization is
largely unexplored. Therefore, we consider it to be the right time to review
the challenges in personalization and the opportunities to address them with
LLMs. In particular, we dedicate this perspective paper to the discussion of
the following aspects: the development and challenges for the existing
personalization system, the newly emerged capabilities of large language
models, and the potential ways of making use of large language models for
personalization.
- Abstract(参考訳): 大きな言語モデルの出現は、人工知能の画期的なブレークスルーだ。
前例のない規模のトレーニングとモデルパラメータにより、大きな言語モデルの能力が劇的に改善され、理解における人間のようなパフォーマンス、言語合成、常識推論などがもたらされた。
このような大きな飛躍的なAI能力は、パーソナライゼーションの実施方法のパターンを変えるだろう。
ひとつは、人間とパーソナライズシステムとのインタラクションの方法を変えることだ。
情報フィルタリングの受動的媒体である代わりに、大きな言語モデルはアクティブなユーザエンゲージメントの基礎を提供する。
このような新たな基盤の上に、ユーザ要求を積極的に探索し、ユーザに必要な情報を自然な説明可能な方法で配信することができる。
また、パーソナライゼーションの範囲を大きく広げ、パーソナライズされた情報を収集する唯一の機能から、パーソナライズされたサービスを提供する複合機能へと拡大する。
大きな言語モデルを汎用インターフェースとして活用することにより、パーソナライズシステムは、ユーザ要求を計画にコンパイルし、外部ツールの機能を呼び出して計画を実行し、ツールの出力を統合してエンドツーエンドのパーソナライズタスクを完了させることができる。
現在、大規模な言語モデルが開発されているが、パーソナライゼーションの応用はほとんど未検討である。
したがって、パーソナライズにおける課題とLLMで対処する機会をレビューするには、適切なタイミングだと考えている。
特に,既存のパーソナライズシステムの開発と課題,新たに出現した大規模言語モデルの能力,大規模言語モデルをパーソナライズに活用する潜在的な方法,といった側面について論じる。
関連論文リスト
- Personalized Visual Instruction Tuning [30.677058613937067]
MLLM(Multimodal large language model)は、一般的な会話を行うが、特定の個人をターゲットにした対話を行うことができない。
この欠陥は、モバイルデバイスのカスタマイズされた視覚アシスタントなど、パーソナライズされた設定におけるMLLMの適用を妨げる。
我々は、MLLMが画像内のターゲット個人を識別できるように設計された新しいデータキュレーションおよびトレーニングフレームワークである、パーソナライズド・ビジュアル・インストラクション・チューニング(PVIT)を紹介する。
論文 参考訳(メタデータ) (2024-10-09T17:46:53Z) - Unsupervised Human Preference Learning [7.959043497459107]
大きな言語モデルは印象的な推論能力を示しているが、パーソナライズされたコンテンツを提供するのに苦労している。
文脈内学習やパラメータ効率のよい微調整といった既存の手法は、人間の嗜好の複雑さを捉えるには不十分である。
そこで本研究では,より大規模で事前学習されたモデルを示す自然言語規則を生成するために,小パラメータモデルを選好エージェントとして活用する手法を提案する。
論文 参考訳(メタデータ) (2024-09-30T17:51:01Z) - PEFT-U: Parameter-Efficient Fine-Tuning for User Personalization [9.594958534074074]
ユーザパーソナライズのためのNLPモデルの構築と評価のための新しいデータセットであるPEFT-Uベンチマークを紹介する。
多様なユーザ中心タスクのコンテキストにおいて、LLMを効率よくパーソナライズし、ユーザ固有の嗜好に適合させるという課題について検討する。
論文 参考訳(メタデータ) (2024-07-25T14:36:18Z) - LVLM-Interpret: An Interpretability Tool for Large Vision-Language Models [50.259006481656094]
本稿では,大規模視覚言語モデルの内部メカニズムの理解を目的とした対話型アプリケーションを提案する。
このインタフェースは, 画像パッチの解釈可能性を高めるために設計されており, 応答の生成に有効である。
本稿では,一般的な大規模マルチモーダルモデルであるLLaVAにおける障害機構の理解に,アプリケーションがどのように役立つかのケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-03T23:57:34Z) - Towards Unified Multi-Modal Personalization: Large Vision-Language Models for Generative Recommendation and Beyond [87.1712108247199]
我々の目標は、マルチモーダルパーソナライゼーションシステム(UniMP)のための統一パラダイムを確立することである。
我々は、幅広いパーソナライズされたニーズに対処できる汎用的でパーソナライズされた生成フレームワークを開発する。
我々の手法は、パーソナライズされたタスクのための基礎言語モデルの能力を高める。
論文 参考訳(メタデータ) (2024-03-15T20:21:31Z) - Diffusion Language Models Can Perform Many Tasks with Scaling and
Instruction-Finetuning [56.03057119008865]
拡散言語モデルを拡張することで、強力な言語学習者が効果的に学習できることが示される。
大規模データから知識を最初に取得することで,大規模に有能な拡散言語モデルを構築する。
実験により、拡散言語モデルのスケーリングは、下流言語タスクにおけるパフォーマンスを一貫して改善することが示された。
論文 参考訳(メタデータ) (2023-08-23T16:01:12Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。