論文の概要: Writing user personas with Large Language Models: Testing phase 6 of a
Thematic Analysis of semi-structured interviews
- arxiv url: http://arxiv.org/abs/2305.18099v1
- Date: Mon, 29 May 2023 14:09:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 14:50:45.438388
- Title: Writing user personas with Large Language Models: Testing phase 6 of a
Thematic Analysis of semi-structured interviews
- Title(参考訳): 大規模言語モデルを用いたユーザペルソナ記述:半構造化インタビューのテーマ分析のフェーズ6
- Authors: Stefano De Paoli
- Abstract要約: 本論文の目的は,大規模言語モデル(より正確には GPT3.5-Turbo)を用いて,半構造化インタビューの主題解析(TA)を満足して行うことができるかを確立することである。
本論文は,本モデルが基本的ユーザペルソナをテーマから派生した許容品質で構築し,そのモデルがユーザペルソナのアイデア生成に役立つことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The goal of this paper is establishing if we can satisfactorily perform a
Thematic Analysis (TA) of semi-structured interviews using a Large Language
Model (more precisely GPT3.5-Turbo). Building on previous work by the author,
which established an embryonal process for conducting a TA with the model, this
paper will perform a further analysis and then cover the last phase of a TA
(phase 6), which entails the writing up of the result. This phase was not
covered by the previous work. In particular, the focus will be on using the
results of a TA done with the LLM on a dataset of user interviews, for writing
user personas, with the model building on the TA to produce the personas
narratives. User personas are models of real users, usually built from a data
analysis like interviews with a sample of users. User personas are tools often
used in User Centered Design processes. The paper shows that the model can
build basic user personas with an acceptable quality deriving them from themes,
and that the model can serve for the generation of ideas for user personas.
- Abstract(参考訳): 本論文の目的は,大規模言語モデル(より正確にはGPT3.5-Turbo)を用いて,半構造化インタビューのテーマ分析(TA)を満足して実施できるかどうかを確立することである。
本論文は, TAをモデルで実行するための胚過程を確立した著者による以前の研究に基づいて, さらに解析を行い, TAの最終段階(フェーズ6)をカバーする。
このフェーズは以前の作業ではカバーされなかった。
特に、ユーザのパーソナライズを記述するために、ユーザインタビューのデータセットにllmで行なったtaの結果と、ペルソナナナナラティブを生成するためにta上に構築されたモデルを使用することに重点を置く。
ユーザペルソナは実際のユーザのモデルであり、通常、ユーザーのサンプルとのインタビューのようなデータ分析から構築される。
ユーザペルソナは、ユーザ中心設計プロセスでよく使用されるツールである。
本稿は,モデルがユーザパーソナライズのための基本的なユーザパーソナライズをテーマから許容できる品質で構築し,そのモデルがユーザパーソナライズのためのアイデアの生成に役立てることができることを示す。
関連論文リスト
- LLM Comparator: Visual Analytics for Side-by-Side Evaluation of Large
Language Models [31.426274932333264]
自動側評価から結果をインタラクティブに分析する新しいビジュアル分析ツールであるComparatorを提案する。
このツールは、モデルがベースラインモデルよりも優れているか悪いかを、ユーザがいつ、なぜ理解するかを対話的にサポートする。
論文 参考訳(メタデータ) (2024-02-16T09:14:49Z) - On the steerability of large language models toward data-driven personas [103.17413190093366]
協調フィルタリングに基づくデータ駆動型ペルソナ定義手法を提案する。
ユーザの連続表現を仮想トークンのシーケンスにマッピングするために,ソフトプロンプトモデルを学ぶ。
以上の結果から,本アルゴリズムはベースラインの収集よりも性能が優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Improved prompting and process for writing user personas with LLMs,
using qualitative interviews: Capturing behaviour and personality traits of
users [0.0]
本稿では,大規模言語モデルを用いたユーザペルソナ作成のワークフローを提案する。
提案したワークフローでは、同じタスクに対して著者が実施した以前の作業と比較して、プロンプトの改善とテーマのプールの拡大が使用されている。
論文 参考訳(メタデータ) (2023-10-10T07:54:24Z) - DataTales: Investigating the use of Large Language Models for Authoring
Data-Driven Articles [19.341156634212364]
大規模言語モデル(LLM)は、データ駆動記事の作成を支援する機会を提供する。
我々は LLM を利用したプロトタイプシステム DataTales を設計した。
デザインプローブとしてDataTalesを用いて,11人の専門家による質的研究を行い,その概念を評価した。
論文 参考訳(メタデータ) (2023-08-08T06:21:58Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Creating user stereotypes for persona development from qualitative data
through semi-automatic subspace clustering [0.0]
本稿では,ペルソナ作成プロセスの一部を自動化するために,ユーザステレオタイプをモデル化する手法を提案する。
結果は、人格設計者と人格設計者との違いが、異なる結果をもたらすことを示している。
提案アルゴリズムはパラメータ入力に基づいて同様の結果を与えるが、より厳密で最適なクラスタを見つけることができる。
論文 参考訳(メタデータ) (2023-06-26T09:49:51Z) - XTREME-UP: A User-Centric Scarce-Data Benchmark for Under-Represented
Languages [105.54207724678767]
データ不足は、多言語NLPシステムの開発において重要な問題である。
我々はXTREME-UPを提案する。XTREME-UPはゼロショットではなく、希少なデータシナリオに焦点を当てたベンチマークである。
XTREME-UPは、88言語にまたがる言語モデルが、9つのキーとなるユーザー中心技術上で機能する能力を評価する。
論文 参考訳(メタデータ) (2023-05-19T18:00:03Z) - Unsupervised Neural Stylistic Text Generation using Transfer learning
and Adapters [66.17039929803933]
応答生成のためのスタイル特化属性を学習するために,モデルパラメータの0.3%しか更新しない新しい転送学習フレームワークを提案する。
我々はPERSONALITY-CAPTIONSデータセットからスタイル固有の属性を学習する。
論文 参考訳(メタデータ) (2022-10-07T00:09:22Z) - PART: Pre-trained Authorship Representation Transformer [64.78260098263489]
文書を書く著者は、語彙、レジストリ、句読点、ミススペル、絵文字の使用など、テキスト内での識別情報をインプリントする。
以前の作品では、手作りのフィーチャや分類タスクを使用して著者モデルをトレーニングし、ドメイン外の著者に対するパフォーマンスの低下につながった。
セマンティクスの代わりにtextbfauthorship の埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - STORIUM: A Dataset and Evaluation Platform for Machine-in-the-Loop Story
Generation [48.56586847883825]
我々は、オンラインのコラボレーティブなストーリーテリングコミュニティであるSTORiumから構築されたデータセットと評価プラットフォームを紹介した。
データセットには6Kの長編記事と、各物語に散在する詳細な自然言語アノテーションが含まれています。
我々は、STORiumにそれらを統合することで、データセット上で微調整された言語モデルを評価し、実際の著者は提案されたストーリーの継続をモデルに問い合わせ、編集することができる。
論文 参考訳(メタデータ) (2020-10-04T23:26:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。