論文の概要: Using AI for User Representation: An Analysis of 83 Persona Prompts
- arxiv url: http://arxiv.org/abs/2508.13047v1
- Date: Mon, 18 Aug 2025 16:09:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.474013
- Title: Using AI for User Representation: An Analysis of 83 Persona Prompts
- Title(参考訳): ユーザ表現にAIを使う:83人のペルソナプロンプトの分析
- Authors: Joni Salminen, Danial Amin, Bernard Jansen,
- Abstract要約: 大規模言語モデルを用いてユーザペルソナを生成する27の論文から83のペルソナプロンプトを分析した。
いくつかのプロンプトは、短く、簡潔なペルソナの記述への欲求を表しており、これは豊かで、情報的で、丸いペルソナのプロファイルを作成する伝統から逸脱している。
- 参考スコア(独自算出の注目度): 11.852406625172216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyzed 83 persona prompts from 27 research articles that used large language models (LLMs) to generate user personas. Findings show that the prompts predominantly generate single personas. Several prompts express a desire for short or concise persona descriptions, which deviates from the tradition of creating rich, informative, and rounded persona profiles. Text is the most common format for generated persona attributes, followed by numbers. Text and numbers are often generated together, and demographic attributes are included in nearly all generated personas. Researchers use up to 12 prompts in a single study, though most research uses a small number of prompts. Comparison and testing multiple LLMs is rare. More than half of the prompts require the persona output in a structured format, such as JSON, and 74% of the prompts insert data or dynamic variables. We discuss the implications of increased use of computational personas for user representation.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いてユーザペルソナを生成する27の論文から,83のペルソナプロンプトを分析した。
発見は、プロンプトが主に単一のペルソナを生成することを示している。
いくつかのプロンプトは、短くて簡潔なペルソナの記述への欲求を表しており、これは豊かで、情報的で、丸いペルソナのプロフィールを作成する伝統から逸脱している。
テキストは生成されたペルソナ属性に対して最も一般的なフォーマットであり、次に数字が続く。
テキストと数字は、しばしば一緒に生成され、人口特性は、ほぼ全ての生成されたペルソナに含まれる。
研究者は1つの研究で最大12個のプロンプトを使用するが、ほとんどの研究は少数のプロンプトを使用する。
複数のLDMの比較と試験はまれである。
プロンプトの半分以上がJSONのような構造化形式でペルソナ出力を必要とし、プロンプトの74%がデータや動的変数を挿入する。
本稿では,ユーザ表現における計算ペルソナの利用の増加の意味について論じる。
関連論文リスト
- Conversational Prompt Engineering [14.614531952444013]
ユーザが特定のタスクに対してパーソナライズされたプロンプトを作成するのを支援する,ユーザフレンドリーなツールであるConversational Prompt Engineering (CPE)を提案する。
CPEはチャットモデルを使ってユーザと短時間の対話を行い、アウトプットの好みを明確にし、それらをプロンプトに統合する。
要約タスクのユーザスタディは、パーソナライズされたハイパフォーマンスなプロンプトを作成する際のCPEの価値を示す。
論文 参考訳(メタデータ) (2024-08-08T16:18:39Z) - Protecting Copyrighted Material with Unique Identifiers in Large Language Model Training [55.321010757641524]
大きな言語モデル(LLM)のトレーニングに関する主要な関心事は、著作権のあるオンラインテキストを悪用するかどうかである。
本稿では,Web ユーザとコンテンツプラットフォームがtextbftextitunique 識別子を,信頼性と独立性のあるメンバシップ推論に活用することを提唱する,代替の textitinsert-and-detect 手法を提案する。
論文 参考訳(メタデータ) (2024-03-23T06:36:32Z) - When "A Helpful Assistant" Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models [34.831938712535084]
商用AIシステムは一般に、システムプロンプトにおけるLarge Language Models(LLM)の役割を定義している。
客観的タスクにおいて、異なるペルソナがモデルのパフォーマンスにどの程度影響するかは、まだ不明である。
6種類の対人関係と8つの専門領域を含む162のロールのリストをキュレートする。
論文 参考訳(メタデータ) (2023-11-16T17:48:55Z) - Effective Prompt Extraction from Language Models [70.00099540536382]
本稿では,迅速な抽出攻撃の有効性を評価するための枠組みを提案する。
3つの異なるプロンプトと11の基盤となる大規模言語モデルによる実験では、単純なテキストベースの攻撃は、実際に高い確率でプロンプトを明らかにすることができる。
本フレームワークは,抽出したプロンプトがモデル幻覚ではなく実際の秘密プロンプトであるか否かを高精度に判定する。
論文 参考訳(メタデータ) (2023-07-13T16:15:08Z) - PromptRobust: Towards Evaluating the Robustness of Large Language Models on Adversarial Prompts [76.18347405302728]
本研究は、文字、単語、文、意味といった複数のレベルにわたるプロンプトを標的とした、敵対的なテキスト攻撃を多用する。
相手のプロンプトは、感情分析、自然言語推論、読書理解、機械翻訳、数学の問題解決など様々なタスクに使用される。
以上の結果から,現代の大規模言語モデルでは,敵対的プロンプトに対して頑健ではないことが示唆された。
論文 参考訳(メタデータ) (2023-06-07T15:37:00Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。