論文の概要: Improved prompting and process for writing user personas with LLMs,
using qualitative interviews: Capturing behaviour and personality traits of
users
- arxiv url: http://arxiv.org/abs/2310.06391v1
- Date: Tue, 10 Oct 2023 07:54:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 18:20:58.544423
- Title: Improved prompting and process for writing user personas with LLMs,
using qualitative interviews: Capturing behaviour and personality traits of
users
- Title(参考訳): 質的インタビューを用いたLCMによるユーザペルソナ作成の促進とプロセス:ユーザの行動と性格特性の把握
- Authors: Stefano De Paoli
- Abstract要約: 本稿では,大規模言語モデルを用いたユーザペルソナ作成のワークフローを提案する。
提案したワークフローでは、同じタスクに対して著者が実施した以前の作業と比較して、プロンプトの改善とテーマのプールの拡大が使用されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This draft paper presents a workflow for creating User Personas with Large
Language Models, using the results of a Thematic Analysis of qualitative
interviews. The proposed workflow uses improved prompting and a larger pool of
Themes, compared to previous work conducted by the author for the same task.
This is possible due to the capabilities of a recently released LLM which
allows the processing of 16 thousand tokens (GPT3.5-Turbo-16k) and also due to
the possibility to offer a refined prompting for the creation of Personas. The
paper offers details of performing Phase 2 and 3 of Thematic Analysis, and then
discusses the improved workflow for creating Personas. The paper also offers
some reflections on the relationship between the proposed process and existing
approaches to Personas such as the data-driven and qualitative Personas.
Moreover, the paper offers reflections on the capacity of LLMs to capture user
behaviours and personality traits, from the underlying dataset of qualitative
interviews used for the analysis.
- Abstract(参考訳): 本稿では,質的インタビューのテーマ分析の結果を用いて,大規模言語モデルを用いたユーザペルソナ作成のワークフローを提案する。
提案するワークフローでは、プロンプトの改善とテーマプールの拡大が、同じタスクに対して著者が行った以前の作業と比較される。
これは、最近リリースされた1万個のトークン(gpt3.5-turbo-16k)の処理を可能にするllmの機能と、ペルソナ作成のための洗練されたプロンプトを提供する可能性があるためである。
論文は、テーマ分析のフェーズ2とフェーズ3の実行の詳細を説明し、ペルソナ作成のワークフロー改善について論じる。
また,提案するプロセスと,データ駆動型および定性的ペルソナといったペルソナへの既存アプローチとの関係について考察する。
さらに,分析に使用する質的インタビューの基盤となるデータセットから,ユーザ行動や性格特性を捉えるLLMの能力について考察した。
関連論文リスト
- Likelihood as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
言語モデルの性能の効果的な指標としての可能性を示す。
提案手法は,より優れた性能をもたらすプロンプトの選択と構築のための尺度として,疑似可能性を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - Step-Back Profiling: Distilling User History for Personalized Scientific Writing [50.481041470669766]
大きな言語モデル(LLM)は、さまざまな自然言語処理タスクに優れていますが、個人向けにパーソナライズされたコンテンツを生成するのに苦労しています。
ユーザ履歴を簡潔なプロファイルに抽出することで,LSMをパーソナライズするためのSTEP-BACK ProFIlingを導入する。
本手法は,一般パーソナライゼーションベンチマークにおいて,ベースラインを最大3.6ポイント向上させる。
論文 参考訳(メタデータ) (2024-06-20T12:58:26Z) - Facilitating Multi-Role and Multi-Behavior Collaboration of Large Language Models for Online Job Seeking and Recruiting [51.54907796704785]
既存の手法は履歴書とジョブ記述の潜在意味論をモデル化し、それらの間に一致する関数を学習することに依存している。
大規模言語モデル (LLM) の強力なロールプレイング能力に触発されて, LLM によるインタビュアーと候補者のモックインタビュープロセスを導入することを提案する。
そこで我々は,モックインタビュー生成とハンドシェイクプロトコルにおける双方向評価という2つのモジュールにパーソナライズされたマッチングプロセスを分割する,新しいフレームワークであるMockLLMを提案する。
論文 参考訳(メタデータ) (2024-05-28T12:23:16Z) - LLM Comparator: Visual Analytics for Side-by-Side Evaluation of Large
Language Models [31.426274932333264]
自動側評価から結果をインタラクティブに分析する新しいビジュアル分析ツールであるComparatorを提案する。
このツールは、モデルがベースラインモデルよりも優れているか悪いかを、ユーザがいつ、なぜ理解するかを対話的にサポートする。
論文 参考訳(メタデータ) (2024-02-16T09:14:49Z) - Can Large Language Models Serve as Data Analysts? A Multi-Agent Assisted
Approach for Qualitative Data Analysis [6.592797748561459]
大規模言語モデル(LLM)は、ソフトウェア工学(SE)における協調的な人間とロボットの相互作用を可能にした
定性的な研究において,新たな拡張性と精度の次元を導入し,SEにおけるデータ解釈手法を変革する可能性がある。
論文 参考訳(メタデータ) (2024-02-02T13:10:46Z) - The Shifted and The Overlooked: A Task-oriented Investigation of
User-GPT Interactions [114.67699010359637]
実際のユーザクエリの大規模なコレクションをGPTに解析する。
ユーザインタラクションでは'設計'や'計画'といったタスクが一般的だが,従来のNLPベンチマークとは大きく異なる。
論文 参考訳(メタデータ) (2023-10-19T02:12:17Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - Fine-tuning and aligning question answering models for complex
information extraction tasks [0.8392546351624164]
質問応答(QA)や通過検索モデルのような抽出言語モデルは、クエリ結果が適切なコンテキスト文書の境界内で見つかることを保証します。
既存のドイツ語のQAモデルを微調整することで,複雑な言語的特徴の抽出タスクをカスタマイズする性能が向上することを示す。
評価基準を再現するために,Levenshtein 距離,F1-Score,Exact Match,ROUGE-L の組合せを推定した。
論文 参考訳(メタデータ) (2023-09-26T10:02:21Z) - Writing user personas with Large Language Models: Testing phase 6 of a
Thematic Analysis of semi-structured interviews [0.0]
本論文の目的は,大規模言語モデル(より正確には GPT3.5-Turbo)を用いて,半構造化インタビューの主題解析(TA)を満足して行うことができるかを確立することである。
本論文は,本モデルが基本的ユーザペルソナをテーマから派生した許容品質で構築し,そのモデルがユーザペルソナのアイデア生成に役立つことを示す。
論文 参考訳(メタデータ) (2023-05-29T14:09:14Z) - Peek Across: Improving Multi-Document Modeling via Cross-Document
Question-Answering [49.85790367128085]
我々は,事前学習対象に答える新しいクロスドキュメント質問から,汎用的なマルチドキュメントモデルを事前学習する。
この新規なマルチドキュメントQA定式化は、クロステキスト情報関係をよりよく回復させるようモデルに指示する。
分類タスクや要約タスクに焦点を当てた従来のマルチドキュメントモデルとは異なり、事前学習対象の定式化により、短いテキスト生成と長いテキスト生成の両方を含むタスクを実行できる。
論文 参考訳(メタデータ) (2023-05-24T17:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。