論文の概要: Comparing Large Language Model AI and Human-Generated Coaching Messages
for Behavioral Weight Loss
- arxiv url: http://arxiv.org/abs/2312.04059v1
- Date: Thu, 7 Dec 2023 05:45:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 16:04:15.823777
- Title: Comparing Large Language Model AI and Human-Generated Coaching Messages
for Behavioral Weight Loss
- Title(参考訳): 行動量損失に対する大規模言語モデルAIと人為的コーチングメッセージの比較
- Authors: Zhuoran Huang, Michael P. Berry, Christina Chwyl, Gary Hsieh, Jing
Wei, Evan M. Forman
- Abstract要約: 大規模言語モデル(LLM)ベースの人工知能(AI)チャットボットは、よりパーソナライズされた新しいメッセージを提供することができる。
重量挙げ試験では87人の成人が、5ポイントのQuatスケールを使用して10のコーチングメッセージの役に立つと評価した。
- 参考スコア(独自算出の注目度): 5.824523259910306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated coaching messages for weight control can save time and costs, but
their repetitive, generic nature may limit their effectiveness compared to
human coaching. Large language model (LLM) based artificial intelligence (AI)
chatbots, like ChatGPT, could offer more personalized and novel messages to
address repetition with their data-processing abilities. While LLM AI
demonstrates promise to encourage healthier lifestyles, studies have yet to
examine the feasibility and acceptability of LLM-based BWL coaching. 87 adults
in a weight-loss trial rated ten coaching messages' helpfulness (five
human-written, five ChatGPT-generated) using a 5-point Likert scale, providing
additional open-ended feedback to justify their ratings. Participants also
identified which messages they believed were AI-generated. The evaluation
occurred in two phases: messages in Phase 1 were perceived as impersonal and
negative, prompting revisions for Phase 2 messages. In Phase 1, AI-generated
messages were rated less helpful than human-written ones, with 66 percent
receiving a helpfulness rating of 3 or higher. However, in Phase 2, the AI
messages matched the human-written ones regarding helpfulness, with 82% scoring
three or above. Additionally, 50% were misidentified as human-written,
suggesting AI's sophistication in mimicking human-generated content. A thematic
analysis of open-ended feedback revealed that participants appreciated AI's
empathy and personalized suggestions but found them more formulaic, less
authentic, and too data-focused. This study reveals the preliminary feasibility
and acceptability of LLM AIs, like ChatGPT, in crafting potentially effective
weight control coaching messages. Our findings also underscore areas for future
enhancement.
- Abstract(参考訳): ウェイトコントロールのための自動コーチングメッセージは、時間とコストを節約できるが、反復的で汎用的な性質は、人間のコーチングと比べてその効果を制限する可能性がある。
大規模言語モデル(LLM)ベースの人工知能(AI)チャットボット、例えばChatGPTは、よりパーソナライズされた新しいメッセージを提供し、データ処理能力の反復に対処する。
LLM AIは健康的なライフスタイルを促進するという約束を示しているが、LLMベースのBWLコーチングの実現可能性と受容性はまだ研究されていない。
体重減少試験の87人の成人は、5ポイントのlikertスケールを使用して、10のコーチングメッセージの有益性(人書き5つ、チャットgpt生成5つ)を評価し、レーティングを正当化するための追加のフィードバックを提供する。
参加者はAIが生成したメッセージも特定した。
評価は2段階に分けて行われ、第1段階のメッセージは非対人的かつ否定的なものとして認識され、第2段階のメッセージの改訂が進められた。
フェーズ1では、aiが生成したメッセージは、人間によって書かれたメッセージよりも役に立たず、66%が3以上の評価を受けている。
しかし、フェーズ2では、aiメッセージは人文による助けに関するメッセージと一致し、82%が3点以上を記録した。
さらに、50%は人書きと誤認され、AIの人間生成コンテンツを模倣する洗練度が示唆された。
オープンエンドフィードバックのテーマ分析により、参加者はAIの共感とパーソナライズされた提案を高く評価したが、より形式的で、信頼性が低く、データ重視が多すぎることがわかった。
この研究は、潜在的に効果的な重み制御コーチングメッセージの作成において、ChatGPTのようなLLM AIの予備的実現可能性と受容性を明らかにする。
我々の発見はまた、将来の強化の領域を強調する。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - On the Conversational Persuasiveness of Large Language Models: A Randomized Controlled Trial [10.770999939834985]
制御された無害な環境でAIによる説得の効果を分析する。
その結果、GPT-4を個人情報へのアクセスで議論した参加者は、人間を議論した参加者と比較して、相手との合意が増大する確率が81.7%高かった。
論文 参考訳(メタデータ) (2024-03-21T13:14:40Z) - Can ChatGPT Read Who You Are? [10.577227353680994]
チェコ語で書かれたテキストを代表とする総合的なユーザスタディの結果を155人のサンプルで報告した。
本研究は,ChatGPTによる性格特性推定と人間による評価とを比較し,テキストから人格特性を推定する際のChatGPTの競争性能を報告する。
論文 参考訳(メタデータ) (2023-12-26T14:43:04Z) - The effect of source disclosure on evaluation of AI-generated messages:
A two-part study [0.0]
情報源開示がAIによる健康被害防止メッセージの評価に与える影響について検討した。
情報源の開示はメッセージの評価に大きな影響を及ぼすが、メッセージのランキングを大きく変更することはなかった。
AIに対する否定的な態度の適度なレベルを持つ人にとっては、ソース開示はAI生成メッセージの嗜好を減らした。
論文 参考訳(メタデータ) (2023-11-27T05:20:47Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Learning to Prompt in the Classroom to Understand AI Limits: A pilot
study [35.06607166918901]
大規模言語モデル(LLM)と、ChatGPTのような派生したチャットボットは、AIシステムの自然言語処理能力を大幅に改善した。
しかし、AI手法が顕著な貢献を示しているにもかかわらず、興奮は否定的な感情を引き起こしている。
パイロット教育は21人の生徒を抱えた高校で実施された。
論文 参考訳(メタデータ) (2023-07-04T07:51:37Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - Can ChatGPT Assess Human Personalities? A General Evaluation Framework [70.90142717649785]
大きな言語モデル(LLM)は、様々な分野で印象的な成果を上げてきたが、その潜在的な人間のような心理学はいまだに研究されていない。
本稿では,Mers Briggs Type Indicator (MBTI) テストに基づく人格評価のための総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-01T06:16:14Z) - Artificial Intelligence for Health Message Generation: Theory, Method,
and an Empirical Study Using Prompt Engineering [0.0]
本研究では、健康意識メッセージを生成するAIシステムの可能性を紹介し、検討する。
妊娠中に重要なビタミンである葉酸は、検査ケースとして機能する。
私たちは認識を高めるためにメッセージを生成し、それをリツイートされた人間生成メッセージと比較しました。
論文 参考訳(メタデータ) (2022-12-14T21:13:08Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。