論文の概要: Using AI for User Representation: An Analysis of 83 Persona Prompts
- arxiv url: http://arxiv.org/abs/2508.13047v1
- Date: Mon, 18 Aug 2025 16:09:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.474013
- Title: Using AI for User Representation: An Analysis of 83 Persona Prompts
- Title(参考訳): ユーザ表現にAIを使う:83人のペルソナプロンプトの分析
- Authors: Joni Salminen, Danial Amin, Bernard Jansen,
- Abstract要約: 大規模言語モデルを用いてユーザペルソナを生成する27の論文から83のペルソナプロンプトを分析した。
いくつかのプロンプトは、短く、簡潔なペルソナの記述への欲求を表しており、これは豊かで、情報的で、丸いペルソナのプロファイルを作成する伝統から逸脱している。
- 参考スコア(独自算出の注目度): 11.852406625172216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyzed 83 persona prompts from 27 research articles that used large language models (LLMs) to generate user personas. Findings show that the prompts predominantly generate single personas. Several prompts express a desire for short or concise persona descriptions, which deviates from the tradition of creating rich, informative, and rounded persona profiles. Text is the most common format for generated persona attributes, followed by numbers. Text and numbers are often generated together, and demographic attributes are included in nearly all generated personas. Researchers use up to 12 prompts in a single study, though most research uses a small number of prompts. Comparison and testing multiple LLMs is rare. More than half of the prompts require the persona output in a structured format, such as JSON, and 74% of the prompts insert data or dynamic variables. We discuss the implications of increased use of computational personas for user representation.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いてユーザペルソナを生成する27の論文から,83のペルソナプロンプトを分析した。
発見は、プロンプトが主に単一のペルソナを生成することを示している。
いくつかのプロンプトは、短くて簡潔なペルソナの記述への欲求を表しており、これは豊かで、情報的で、丸いペルソナのプロフィールを作成する伝統から逸脱している。
テキストは生成されたペルソナ属性に対して最も一般的なフォーマットであり、次に数字が続く。
テキストと数字は、しばしば一緒に生成され、人口特性は、ほぼ全ての生成されたペルソナに含まれる。
研究者は1つの研究で最大12個のプロンプトを使用するが、ほとんどの研究は少数のプロンプトを使用する。
複数のLDMの比較と試験はまれである。
プロンプトの半分以上がJSONのような構造化形式でペルソナ出力を必要とし、プロンプトの74%がデータや動的変数を挿入する。
本稿では,ユーザ表現における計算ペルソナの利用の増加の意味について論じる。
関連論文リスト
- One Persona, Many Cues, Different Results: How Sociodemographic Cues Impact LLM Personalization [6.512258839228369]
ソシオデマトグラフィーサブグループによるLLMのパーソナライゼーションは、しばしばユーザー体験を改善するが、グループ間でバイアスや不公平な結果を導入または増幅することもできる。
従来の研究では、LPMのバイアスを研究するために、モデルに伝達されるいわゆるペルソナ(sosocidemographic user attribute)が用いられてきた。
我々は、オープンでプロプライエタリな7つのLDMに対して、4つの書き込みとアドバイスタスクで使用される6つのペルソナキューを比較した。
クエは全体的に高い相関関係にあるが、それらはペルソナ間での応答にかなりのばらつきをもたらす。
論文 参考訳(メタデータ) (2026-01-26T15:15:58Z) - Measuring Lexical Diversity of Synthetic Data Generated through Fine-Grained Persona Prompting [4.095543579619801]
我々はペルソナ駆動の合成プロンプトと応答の多様性を測定する。
ペルソナ記述の詳細な詳細が生成したテキストの多様性にどの程度寄与するかを検討する。
論文 参考訳(メタデータ) (2025-05-23T02:00:00Z) - Is Human-Like Text Liked by Humans? Multilingual Human Detection and Preference Against AI [95.81924314159943]
人文と機械文の大きなギャップは、具体性、文化的ニュアンス、多様性にある。
また,人間は必ずしも人書きのテキストを好んではいないこと,特にその情報源を明確に特定できない場合などを見いだす。
論文 参考訳(メタデータ) (2025-02-17T09:56:46Z) - People who frequently use ChatGPT for writing tasks are accurate and robust detectors of AI-generated text [37.36534911201806]
私たちは、300のノンフィクションの英語記事を読むために注釈を雇い、それを人書きまたはAI生成とラベル付けします。
実験の結果,AI生成テキストの検出において,LLMを頻繁に使用するアノテータが優れていることがわかった。
注釈付きデータセットとコードを公開し、AI生成テキストの人的および自動検出に関する将来の研究を刺激します。
論文 参考訳(メタデータ) (2025-01-26T19:31:34Z) - Conversational Prompt Engineering [14.614531952444013]
ユーザが特定のタスクに対してパーソナライズされたプロンプトを作成するのを支援する,ユーザフレンドリーなツールであるConversational Prompt Engineering (CPE)を提案する。
CPEはチャットモデルを使ってユーザと短時間の対話を行い、アウトプットの好みを明確にし、それらをプロンプトに統合する。
要約タスクのユーザスタディは、パーソナライズされたハイパフォーマンスなプロンプトを作成する際のCPEの価値を示す。
論文 参考訳(メタデータ) (2024-08-08T16:18:39Z) - Protecting Copyrighted Material with Unique Identifiers in Large Language Model Training [55.321010757641524]
大きな言語モデル(LLM)のトレーニングに関する主要な関心事は、著作権のあるオンラインテキストを悪用するかどうかである。
本稿では,Web ユーザとコンテンツプラットフォームがtextbftextitunique 識別子を,信頼性と独立性のあるメンバシップ推論に活用することを提唱する,代替の textitinsert-and-detect 手法を提案する。
論文 参考訳(メタデータ) (2024-03-23T06:36:32Z) - When "A Helpful Assistant" Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models [34.831938712535084]
商用AIシステムは一般に、システムプロンプトにおけるLarge Language Models(LLM)の役割を定義している。
客観的タスクにおいて、異なるペルソナがモデルのパフォーマンスにどの程度影響するかは、まだ不明である。
6種類の対人関係と8つの専門領域を含む162のロールのリストをキュレートする。
論文 参考訳(メタデータ) (2023-11-16T17:48:55Z) - Effective Prompt Extraction from Language Models [70.00099540536382]
本稿では,迅速な抽出攻撃の有効性を評価するための枠組みを提案する。
3つの異なるプロンプトと11の基盤となる大規模言語モデルによる実験では、単純なテキストベースの攻撃は、実際に高い確率でプロンプトを明らかにすることができる。
本フレームワークは,抽出したプロンプトがモデル幻覚ではなく実際の秘密プロンプトであるか否かを高精度に判定する。
論文 参考訳(メタデータ) (2023-07-13T16:15:08Z) - PromptRobust: Towards Evaluating the Robustness of Large Language Models on Adversarial Prompts [76.18347405302728]
本研究は、文字、単語、文、意味といった複数のレベルにわたるプロンプトを標的とした、敵対的なテキスト攻撃を多用する。
相手のプロンプトは、感情分析、自然言語推論、読書理解、機械翻訳、数学の問題解決など様々なタスクに使用される。
以上の結果から,現代の大規模言語モデルでは,敵対的プロンプトに対して頑健ではないことが示唆された。
論文 参考訳(メタデータ) (2023-06-07T15:37:00Z) - Toward Human Readable Prompt Tuning: Kubrick's The Shining is a good
movie, and a good prompt too? [84.91689960190054]
大規模言語モデルは、自然言語のプロンプトが与えられた場合、ゼロショットで新しいタスクを実行することができる。
特にプロンプトが自然言語である場合、どの要因がプロンプトを効果的にするかは明らかにされていない。
論文 参考訳(メタデータ) (2022-12-20T18:47:13Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z) - A Neural Topical Expansion Framework for Unstructured Persona-oriented
Dialogue Generation [52.743311026230714]
Persona Exploration and Exploitation (PEE)は、事前に定義されたユーザペルソナ記述を意味論的に相関したコンテンツで拡張することができる。
PEEはペルソナ探索とペルソナ搾取という2つの主要なモジュールで構成されている。
提案手法は, 自動評価と人的評価の両面で, 最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-06T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。