論文の概要: Your Next Token Prediction: A Multilingual Benchmark for Personalized Response Generation
- arxiv url: http://arxiv.org/abs/2510.14398v1
- Date: Thu, 16 Oct 2025 07:54:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.768319
- Title: Your Next Token Prediction: A Multilingual Benchmark for Personalized Response Generation
- Title(参考訳): 次のToken予測:パーソナライズされた応答生成のための多言語ベンチマーク
- Authors: Shiyao Ding, Takayuki Ito,
- Abstract要約: Your Next Token Prediction」は、制御された人間とエージェントの会話を通して、ユーザの正確な単語選択をモデル化する。
我々は,英語,日本語,中国語の対話セッション100件のベンチマークを作成し,心理学的根拠を持つNPCを用いて5日間の対話を行う。
このセットアップは、自然な日々のコミュニケーションパターンをキャプチャし、ユーザの内部モデルの分析を可能にする。
- 参考スコア(独自算出の注目度): 0.7987946351918742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) excel at general next-token prediction but still struggle to generate responses that reflect how individuals truly communicate, such as replying to emails or social messages in their own style. However, real SNS or email histories are difficult to collect due to privacy concerns. To address this, we propose the task of "Your Next Token Prediction (YNTP)", which models a user's precise word choices through controlled human-agent conversations. We build a multilingual benchmark of 100 dialogue sessions across English, Japanese, and Chinese, where users interact for five days with psychologically grounded NPCs based on MBTI dimensions. This setup captures natural, daily-life communication patterns and enables analysis of users' internal models. We evaluate prompt-based and fine-tuning-based personalization methods, establishing the first benchmark for YNTP and a foundation for user-aligned language modeling. The dataset is available at: https://github.com/AnonymousHub4Submissions/your-next-token-prediction-dataset-100
- Abstract(参考訳): 大きな言語モデル(LLM)は、一般的な次の次の予測で優れているが、電子メールやソーシャルメッセージへの返信など、個人が真にコミュニケーションする方法を反映した応答を生成するのに苦慮している。
しかし、プライバシー上の懸念から、実際のSNSやメール履歴の収集は困難である。
そこで本研究では,ユーザによる人間とエージェントの会話の制御を通じて,ユーザの正確な単語選択をモデル化するタスクであるYour Next Token Prediction (YNTP)を提案する。
我々は、英語、日本語、中国語の対話セッション100件の多言語ベンチマークを構築し、MBTI次元に基づく心理学的根拠を持つNPCと5日間の対話を行う。
このセットアップは、自然な日々のコミュニケーションパターンをキャプチャし、ユーザの内部モデルの解析を可能にする。
我々は,YNTPの最初のベンチマークとユーザ整合型言語モデリングの基礎を確立し,プロンプトベースおよび微調整型パーソナライズ手法の評価を行った。
データセットは以下の通りである。 https://github.com/AnonymousHub4Submissions/your-next-token-prediction-dataset-100
関連論文リスト
- Limits to Predicting Online Speech Using Large Language Models [20.215414802169967]
最近の理論的結果は、ユーザのソーシャルサークルからの投稿は、ユーザの過去の投稿と同じくらい、ユーザの将来の投稿を予測可能であることを示唆している。
我々は予測可能性について、モデルの不確実性の尺度として定義する。
サイズが15億から70億の4つの大きな言語モデルにまたがって、ユーザの投稿を仲間の投稿から予測すると、パフォーマンスが低下することがわかった。
論文 参考訳(メタデータ) (2024-07-08T09:50:49Z) - PSYDIAL: Personality-based Synthetic Dialogue Generation using Large Language Models [4.283022729693451]
本稿では,大規模言語モデルからの応答をプロンプトによって引き出すための,エンドツーエンドのパーソナリティに基づく合成対話データ生成パイプラインを提案する。
提案したパイプラインを用いて,パーソナリティに基づく対話に焦点を当てた韓国初の対話データセットPSYDIALを紹介した。
実験結果から, 事前学習モデルと, チャイトチャットデータセットを用いた微調整モデルでは, 人格を反映する応答を生成するのに苦労する一方で, PSYDIALでトレーニングしたモデルでは, 大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-04-01T05:19:34Z) - Can Language Models Learn to Listen? [96.01685069483025]
本稿では,話者の言葉に基づく社会的対話における聞き手から適切な表情応答を生成するための枠組みを提案する。
提案手法は,VQ-VAEを用いて定量化したリスナーの顔のジェスチャー列であるリスナーの応答を自己回帰的に予測する。
生成したリスナーの動きは,定量的メトリクスと質的ユーザスタディを通じて,言語意味論に精通し,反映していることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:59:02Z) - Textually Pretrained Speech Language Models [107.10344535390956]
本稿では、事前訓練されたテキスト言語モデルからウォームスタートを用いたSpeechLMの訓練方法であるTWISTを提案する。
我々は、TWISTがボード全体のコールドスタートSpeechLMより優れる自動評価と人的評価の両方を用いて示す。
論文 参考訳(メタデータ) (2023-05-22T13:12:16Z) - TwHIN-BERT: A Socially-Enriched Pre-trained Language Model for
Multilingual Tweet Representations at Twitter [31.698196219228024]
TwHIN-BERTはTwitterで制作された多言語言語モデルである。
私たちのモデルは、100以上の異なる言語をカバーする70億のツイートで訓練されています。
我々は,多言語ソーシャルレコメンデーションと意味理解タスクにおけるモデルの評価を行った。
論文 参考訳(メタデータ) (2022-09-15T19:01:21Z) - Pchatbot: A Large-Scale Dataset for Personalized Chatbot [49.16746174238548]
本稿では,Weibo と Judicial のフォーラムから収集した2つのサブセットを含む大規模対話データセットである Pchatbot を紹介する。
生データセットを対話システムに適応させるため、匿名化などのプロセスを通じて生データセットを精巧に正規化する。
Pchatbotのスケールは、既存の中国のデータセットよりも大幅に大きく、データ駆動モデルの恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2020-09-28T12:49:07Z) - A Large-Scale Chinese Short-Text Conversation Dataset [77.55813366932313]
大規模な中国語会話データセットLCCCについて,基本バージョン(680万対話),大バージョン(1120万対話)について述べる。
データセットの品質は、厳格なデータクリーニングパイプラインによって保証されます。
また,LCCC-baseとLCCC-largeで訓練された事前学習対話モデルもリリースした。
論文 参考訳(メタデータ) (2020-08-10T08:12:49Z) - XPersona: Evaluating Multilingual Personalized Chatbot [76.00426517401894]
我々はペルソナ・チャットの多言語拡張(XPersona)を提案する。
我々のデータセットには、多言語パーソナライズされたエージェントの構築と評価のための英語以外の6言語でのペルソナ会話が含まれています。
論文 参考訳(メタデータ) (2020-03-17T07:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。