論文の概要: Writing user personas with Large Language Models: Testing phase 6 of a
Thematic Analysis of semi-structured interviews
- arxiv url: http://arxiv.org/abs/2305.18099v1
- Date: Mon, 29 May 2023 14:09:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 14:50:45.438388
- Title: Writing user personas with Large Language Models: Testing phase 6 of a
Thematic Analysis of semi-structured interviews
- Title(参考訳): 大規模言語モデルを用いたユーザペルソナ記述:半構造化インタビューのテーマ分析のフェーズ6
- Authors: Stefano De Paoli
- Abstract要約: 本論文の目的は,大規模言語モデル(より正確には GPT3.5-Turbo)を用いて,半構造化インタビューの主題解析(TA)を満足して行うことができるかを確立することである。
本論文は,本モデルが基本的ユーザペルソナをテーマから派生した許容品質で構築し,そのモデルがユーザペルソナのアイデア生成に役立つことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The goal of this paper is establishing if we can satisfactorily perform a
Thematic Analysis (TA) of semi-structured interviews using a Large Language
Model (more precisely GPT3.5-Turbo). Building on previous work by the author,
which established an embryonal process for conducting a TA with the model, this
paper will perform a further analysis and then cover the last phase of a TA
(phase 6), which entails the writing up of the result. This phase was not
covered by the previous work. In particular, the focus will be on using the
results of a TA done with the LLM on a dataset of user interviews, for writing
user personas, with the model building on the TA to produce the personas
narratives. User personas are models of real users, usually built from a data
analysis like interviews with a sample of users. User personas are tools often
used in User Centered Design processes. The paper shows that the model can
build basic user personas with an acceptable quality deriving them from themes,
and that the model can serve for the generation of ideas for user personas.
- Abstract(参考訳): 本論文の目的は,大規模言語モデル(より正確にはGPT3.5-Turbo)を用いて,半構造化インタビューのテーマ分析(TA)を満足して実施できるかどうかを確立することである。
本論文は, TAをモデルで実行するための胚過程を確立した著者による以前の研究に基づいて, さらに解析を行い, TAの最終段階(フェーズ6)をカバーする。
このフェーズは以前の作業ではカバーされなかった。
特に、ユーザのパーソナライズを記述するために、ユーザインタビューのデータセットにllmで行なったtaの結果と、ペルソナナナナラティブを生成するためにta上に構築されたモデルを使用することに重点を置く。
ユーザペルソナは実際のユーザのモデルであり、通常、ユーザーのサンプルとのインタビューのようなデータ分析から構築される。
ユーザペルソナは、ユーザ中心設計プロセスでよく使用されるツールである。
本稿は,モデルがユーザパーソナライズのための基本的なユーザパーソナライズをテーマから許容できる品質で構築し,そのモデルがユーザパーソナライズのためのアイデアの生成に役立てることができることを示す。
関連論文リスト
- PersonalSum: A User-Subjective Guided Personalized Summarization Dataset for Large Language Models [3.516029765200171]
我々はPersonalSumと呼ばれる高品質でパーソナライズされた手作業による要約データセットを提案する。
このデータセットは、公開読者の焦点が、大規模言語モデルによって生成された一般的な要約と異なるかどうかを調査する最初のものである。
論文 参考訳(メタデータ) (2024-10-04T20:12:39Z) - Detection and Measurement of Syntactic Templates in Generated Text [58.111650675717414]
モデルにおける一般的な反復を特徴付けるための構文的特徴の解析を行う。
モデルでは、下流のタスクにおいて、人間の参照テキストよりも高いレートでテンプレートテキストを生成する傾向にある。
論文 参考訳(メタデータ) (2024-06-28T19:34:23Z) - Interactive Topic Models with Optimal Transport [75.26555710661908]
ラベル名監視型トピックモデリングのためのアプローチとして,EdTMを提案する。
EdTMは、LM/LLMベースのドキュメントトピック親和性を活用しながら、代入問題としてのトピックモデリングをモデル化する。
論文 参考訳(メタデータ) (2024-06-28T13:57:27Z) - Step-Back Profiling: Distilling User History for Personalized Scientific Writing [50.481041470669766]
大きな言語モデル(LLM)は、さまざまな自然言語処理タスクに優れていますが、個人向けにパーソナライズされたコンテンツを生成するのに苦労しています。
ユーザ履歴を簡潔なプロファイルに抽出することで,LSMをパーソナライズするためのSTEP-BACK ProFIlingを導入する。
本手法は,一般パーソナライゼーションベンチマークにおいて,ベースラインを最大3.6ポイント向上させる。
論文 参考訳(メタデータ) (2024-06-20T12:58:26Z) - Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Thematic Analysis with Large Language Models: does it work with languages other than English? A targeted test in Italian [0.0]
本稿では,大言語モデル(Large Language Model,LLM)を用いた主題解析(TA)を英語と異なる言語で行うテストを提案する。
イタリアにおけるセミ構造化インタビューのオープンアクセスデータセットを使用して、テストが提案される。
テストは、事前訓練されたモデルが、イタリア語のプロンプトを使用して、データ上でそのようなTAを実行可能であることを示している。
論文 参考訳(メタデータ) (2024-04-12T14:10:09Z) - LLM Comparator: Visual Analytics for Side-by-Side Evaluation of Large
Language Models [31.426274932333264]
自動側評価から結果をインタラクティブに分析する新しいビジュアル分析ツールであるComparatorを提案する。
このツールは、モデルがベースラインモデルよりも優れているか悪いかを、ユーザがいつ、なぜ理解するかを対話的にサポートする。
論文 参考訳(メタデータ) (2024-02-16T09:14:49Z) - Improved prompting and process for writing user personas with LLMs,
using qualitative interviews: Capturing behaviour and personality traits of
users [0.0]
本稿では,大規模言語モデルを用いたユーザペルソナ作成のワークフローを提案する。
提案したワークフローでは、同じタスクに対して著者が実施した以前の作業と比較して、プロンプトの改善とテーマのプールの拡大が使用されている。
論文 参考訳(メタデータ) (2023-10-10T07:54:24Z) - Creating user stereotypes for persona development from qualitative data
through semi-automatic subspace clustering [0.0]
本稿では,ペルソナ作成プロセスの一部を自動化するために,ユーザステレオタイプをモデル化する手法を提案する。
結果は、人格設計者と人格設計者との違いが、異なる結果をもたらすことを示している。
提案アルゴリズムはパラメータ入力に基づいて同様の結果を与えるが、より厳密で最適なクラスタを見つけることができる。
論文 参考訳(メタデータ) (2023-06-26T09:49:51Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - STORIUM: A Dataset and Evaluation Platform for Machine-in-the-Loop Story
Generation [48.56586847883825]
我々は、オンラインのコラボレーティブなストーリーテリングコミュニティであるSTORiumから構築されたデータセットと評価プラットフォームを紹介した。
データセットには6Kの長編記事と、各物語に散在する詳細な自然言語アノテーションが含まれています。
我々は、STORiumにそれらを統合することで、データセット上で微調整された言語モデルを評価し、実際の著者は提案されたストーリーの継続をモデルに問い合わせ、編集することができる。
論文 参考訳(メタデータ) (2020-10-04T23:26:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。