論文の概要: Can AI Have a Personality? Prompt Engineering for AI Personality Simulation: A Chatbot Case Study in Gender-Affirming Voice Therapy Training
- arxiv url: http://arxiv.org/abs/2508.18234v1
- Date: Wed, 20 Aug 2025 00:43:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.889436
- Title: Can AI Have a Personality? Prompt Engineering for AI Personality Simulation: A Chatbot Case Study in Gender-Affirming Voice Therapy Training
- Title(参考訳): AIはパーソナリティを持つか?:AIパーソナリティシミュレーションのためのプロンプトエンジニアリング:性同一性教育におけるチャットボットのケーススタディ
- Authors: Tailon D. Jackson, Byunggu Yu,
- Abstract要約: この論文は,大規模言語モデル (LLM) が,一貫したパーソナリティをシミュレートするために,迅速なエンジニアリングによって導出できるかどうかを考察する。
この研究は、SLP(Speech-Language Pathology)の学生教育のために設計されたチャットボットの文脈の中で、この概念を探求する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This thesis investigates whether large language models (LLMs) can be guided to simulate a consistent personality through prompt engineering. The study explores this concept within the context of a chatbot designed for Speech-Language Pathology (SLP) student training, specifically focused on gender-affirming voice therapy. The chatbot, named Monae Jackson, was created to represent a 32-year-old transgender woman and engage in conversations simulating client-therapist interactions. Findings suggest that with prompt engineering, the chatbot maintained a recognizable and consistent persona and had a distinct personality based on the Big Five Personality test. These results support the idea that prompt engineering can be used to simulate stable personality characteristics in AI chatbots.
- Abstract(参考訳): この論文は,大規模言語モデル (LLM) が,一貫したパーソナリティをシミュレートするために,迅速なエンジニアリングによって導出できるかどうかを考察する。
この研究は、SLP(Speech-Language Pathology)の学生教育のために設計されたチャットボットの文脈の中で、この概念を探求する。
このチャットボットはMonae Jacksonという名前で、32歳のトランスジェンダーの女性を表現し、クライアントとセラピストの対話をシミュレートする会話を行うために作られた。
発見は、迅速なエンジニアリングによって、チャットボットは認識可能な一貫したペルソナを維持し、ビッグファイブパーソナリティテストに基づいて異なるパーソナリティを持っていたことを示唆している。
これらの結果は、AIチャットボットの安定した性格特性をシミュレートするために、迅速なエンジニアリングが使用できるという考えを支持する。
関連論文リスト
- Artificial Empathy: AI based Mental Health [0.0]
多くの人は精神疾患に悩まされるが、誰もが専門的な援助を求めたり、メンタルヘルスにアクセスできるわけではない。
AIチャットボットは、精神疾患を持つ人や、誰かと話したい人にとって、ますます行き詰まりになっている。
論文 参考訳(メタデータ) (2025-05-30T02:36:56Z) - Co-Designing a Chatbot for Culturally Competent Clinical Communication: Experience and Reflections [0.0]
医学生のための文化的に有能なコミュニケーショントレーニングを支援するために,AI駆動型ロボットの利用について検討する。
このロボットは、現実的な患者の会話をシミュレートし、ACT文化能力モデルに基づく構造化されたフィードバックを提供するように設計されている。
私たちはこのロボットを、2024年にイギリスの医学部で3年生の小さなグループでテストしました。
論文 参考訳(メタデータ) (2025-05-18T17:21:46Z) - Existential Crisis: A Social Robot's Reason for Being [0.0]
本研究は,ロボットのユーザ認知が個性表示にどのように影響するかを検討することを目的とする。
LLMと音声によるテキスト技術を用いて,2つの条件を比較した。
論文 参考訳(メタデータ) (2025-01-06T20:30:15Z) - Empirical Study of Symmetrical Reasoning in Conversational Chatbots [0.0]
本研究では,大規模言語モデル(LLM)を利用した対話型チャットボットによる述語対称性の理解について検討する。
ChatGPT 4、Huggingface chat AI、MicrosoftのCopilot AI、PerplexityによるLLaMA、Gemini Advancedの5つのチャットボットの対称推論を評価した。
実験の結果、チャットボットのパフォーマンスは様々であり、人間のような推論能力に近づいている。
論文 参考訳(メタデータ) (2024-07-08T08:38:43Z) - LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - Measuring and Controlling Instruction (In)Stability in Language Model Dialogs [72.38330196290119]
System-promptingは、言語モデルチャットボットをカスタマイズするツールで、特定の命令に従うことができる。
本稿では,仮説を検証し,セルフチャットによる命令安定性の評価を行うベンチマークを提案する。
我々は8ラウンドの会話で重要な指示ドリフトを明らかにした。
そこで本研究では,2つの強力なベースラインに対して良好に比較可能なsplit-softmaxという軽量な手法を提案する。
論文 参考訳(メタデータ) (2024-02-13T20:10:29Z) - InCharacter: Evaluating Personality Fidelity in Role-Playing Agents through Psychological Interviews [57.04431594769461]
本稿では, RPAの性格的忠実度を心理的尺度で評価するための新しい視点を紹介する。
実験には様々な種類の RPA と LLM が含まれ、14の広く使用されている心理学的尺度で32の異なる文字をカバーしている。
InCharacterでは、現在最先端のRPAが人物の人格と高度に一致した個性を示し、80.7%の精度を達成している。
論文 参考訳(メタデータ) (2023-10-27T08:42:18Z) - Towards Healthy AI: Large Language Models Need Therapists Too [41.86344997530743]
私たちはHealthy AIを安全で信頼性があり倫理的であると定義しています。
本稿では,これらの有害行動の修正に心理療法を用いるセーフガードGPTフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-02T00:39:12Z) - Computational Charisma -- A Brick by Brick Blueprint for Building
Charismatic Artificial Intelligence [98.79723276712419]
チャリスタは、他者を惹きつけ、潜在的に影響を及ぼす能力であると考えられている。
このようなスキルを提供するという、AIの観点からはかなりの関心を持つことができます。
我々は、カリスマ的なように見えるが、他人のカリスマを分析できる機械を構築するための青写真を提示している。
論文 参考訳(メタデータ) (2022-12-31T07:27:01Z) - CPED: A Large-Scale Chinese Personalized and Emotional Dialogue Dataset
for Conversational AI [48.67259855309959]
会話型AIのための既存のデータセットのほとんどは、人間の個性や感情を無視している。
CPEDは,中国における大規模パーソナライズされた感情対話データセットである。
CPEDには40のテレビ番組から392人の話者の12K以上の対話が含まれている。
論文 参考訳(メタデータ) (2022-05-29T17:45:12Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。