論文の概要: Effect of Static vs. Conversational AI-Generated Messages on Colorectal Cancer Screening Intent: a Randomized Controlled Trial
- arxiv url: http://arxiv.org/abs/2507.08211v1
- Date: Thu, 10 Jul 2025 22:46:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.199335
- Title: Effect of Static vs. Conversational AI-Generated Messages on Colorectal Cancer Screening Intent: a Randomized Controlled Trial
- Title(参考訳): 静的対会話型AIメッセージが大腸癌検診内容に及ぼす影響:ランダム化比較試験
- Authors: Neil K. R. Sehgal, Manuel Tonneau, Andy Tan, Shivan J. Mehta, Alison Buttenheim, Lyle Ungar, Anish K. Agarwal, Sharath Chandra Guntuku,
- Abstract要約: 大規模言語モデル(LLM)チャットボットは説得力のあるコミュニケーションの可能性を増す。
915名の成人(45~75歳)に大腸癌検診を施行した。
どちらのAI介入も12ポイント(12.9-13.8/100)以上のスツールテストの意図を、専門家の材料では7.5倍に向上させた。
- 参考スコア(独自算出の注目度): 5.429833789548265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM) chatbots show increasing promise in persuasive communication. Yet their real-world utility remains uncertain, particularly in clinical settings where sustained conversations are difficult to scale. In a pre-registered randomized controlled trial, we enrolled 915 U.S. adults (ages 45-75) who had never completed colorectal cancer (CRC) screening. Participants were randomized to: (1) no message control, (2) expert-written patient materials, (3) single AI-generated message, or (4) a motivational interviewing chatbot. All participants were required to remain in their assigned condition for at least three minutes. Both AI arms tailored content using participant's self-reported demographics including age and gender. Both AI interventions significantly increased stool test intentions by over 12 points (12.9-13.8/100), compared to a 7.5 gain for expert materials (p<.001 for all comparisons). While the AI arms outperformed the no message control for colonoscopy intent, neither showed improvement xover expert materials. Notably, for both outcomes, the chatbot did not outperform the single AI message in boosting intent despite participants spending ~3.5 minutes more on average engaging with it. These findings suggest concise, demographically tailored AI messages may offer a more scalable and clinically viable path to health behavior change than more complex conversational agents and generic time intensive expert-written materials. Moreover, LLMs appear more persuasive for lesser-known and less-invasive screening approaches like stool testing, but may be less effective for entrenched preferences like colonoscopy. Future work should examine which facets of personalization drive behavior change, whether integrating structural supports can translate these modest intent gains into completed screenings, and which health behaviors are most responsive to AI-supported guidance.
- Abstract(参考訳): 大規模言語モデル(LLM)チャットボットは説得力のあるコミュニケーションの可能性を増す。
しかし、特に持続的な会話のスケールが難しい臨床環境では、実世界の実用性は不確実である。
術前登録したランダム化対照試験では,大腸癌(CRC)スクリーニングを完了したことのない成人915名(45~75歳)を登録した。
参加者は,(1) メッセージコントロールなし,(2) 専門家が書いた患者資料,(3) 単一のAI生成メッセージ,(4) モチベーションのある面接チャットボットにランダム化された。
すべての参加者は、最低でも3分間、割り当てられた状態に留まることが求められた。
両方のAIアームは、年齢や性別を含む参加者の自己申告された人口層を使用してコンテンツを調整した。
どちらのAI介入も12ポイント(12.9-13.8/100)以上のスツールテストの意図を有意に増加させた。
AIアームは大腸内視鏡の意図に対するメッセージコントロールに優れていたが、Xoverの専門家による改善は示さなかった。
特に、両方の結果に対して、チャットボットは、参加者が平均して3.5分以上時間を費やすにもかかわらず、意図を高めるために、単一のAIメッセージを上回りませんでした。
これらの結果は、簡潔で人口統計学的に調整されたAIメッセージは、より複雑な会話エージェントや総合的な時間的専門家による資料よりも、よりスケーラブルで臨床的に可能な健康行動の変化経路を提供する可能性があることを示唆している。
さらに、LLMはスツールテストのような、あまり知られていない、より侵襲的なスクリーニングアプローチでは説得力があるように見えるが、大腸内視鏡のような凝縮した嗜好には効果が低い可能性がある。
今後の作業では、パーソナライゼーションのどの側面が行動を変えるか、構造的なサポートを統合することで、これらの控えめなインテントゲインを完了したスクリーニングに変換できるかどうか、AIが支援するガイダンスに最も反応する健康行動について検討する必要がある。
関連論文リスト
- Conversations with AI Chatbots Increase Short-Term Vaccine Intentions But Do Not Outperform Standard Public Health Messaging [5.816741004594914]
大規模言語モデル(LLM)ベースのチャットボットは説得力のあるコミュニケーションにおける約束を示す。
このランダム化対照試験には、930人のワクチンヘシタント親が関与した。
1)弱いコントロール(メッセージなし)、(2)ケアの基準を反映した強いコントロール(公的公衆衛生資料を読み取る)、または3と4の2つの条件のうちの1つに参加者がランダムに割り当てられた。
論文 参考訳(メタデータ) (2025-04-29T07:59:46Z) - AI persuading AI vs AI persuading Humans: LLMs' Differential Effectiveness in Promoting Pro-Environmental Behavior [70.24245082578167]
環境保護行動(PEB)は気候変動に対処するために不可欠であるが、意識を意図や行動に変えることはいまだ明白である。
大規模言語モデル(LLM)をPEBを促進するツールとして検討し,その影響を3,200人の参加者で比較した。
人工的およびシミュレートされたエージェントは、介入後のEBスタンスに大きく影響し、ヒトの反応はほとんど変化しない。
論文 参考訳(メタデータ) (2025-03-03T21:40:55Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - X-TURING: Towards an Enhanced and Efficient Turing Test for Long-Term Dialogue Agents [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すかどうかを調べる。
従来の設定では、各参加者は一度に1つのメッセージに制限される。
本稿では,textitburstダイアログパターンを用いて,元のテストを強化するtextbftextscX-Turingを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - How Reliable AI Chatbots are for Disease Prediction from Patient Complaints? [0.0]
本研究は,AIチャットボット,特にGPT 4.0,Claude 3 Opus,Gemini Ultra 1.0の信頼性を,救急部門における患者の苦情から疾患を予測するために検討した。
結果は、GPT 4.0は数ショットデータの増加で高い精度を達成し、Gemini Ultra 1.0は少ないサンプルで良好に動作し、Claude 3 Opusは一貫性のある性能を維持していることを示唆している。
論文 参考訳(メタデータ) (2024-05-21T22:00:13Z) - A General-purpose AI Avatar in Healthcare [1.5081825869395544]
本稿では、医療におけるチャットボットの役割に焦点を当て、AIインタラクションをより患者にアピールするためのアバターの使用について検討する。
汎用AIアバターアプリケーションのフレームワークを3カテゴリのプロンプト辞書とプロンプト改善機構を用いて実証する。
2段階のアプローチでは、汎用AI言語モデルを微調整し、異なるAIアバターを作成して、ユーザと医療上の問題について議論することが提案されている。
論文 参考訳(メタデータ) (2024-01-10T03:44:15Z) - Comparing Large Language Model AI and Human-Generated Coaching Messages for Behavioral Weight Loss [5.496825493463708]
大規模言語モデル(LLM)ベースの人工知能(AI)チャットボットは、よりパーソナライズされた新しいメッセージを提供することができる。
重量挙げ試験では87人の成人が、5ポイントのQuatスケールを使用して10のコーチングメッセージの役に立つと評価した。
論文 参考訳(メタデータ) (2023-12-07T05:45:24Z) - The impact of responding to patient messages with large language model
assistance [4.243020918808522]
ドキュメンテーションの負担はクリニックのバーンアウトに大きく貢献する。
多くの病院が電子カルテシステムに積極的に統合している。
我々は,患者の質問に対する臨床医の回答作成を支援するために,大規模言語モデルの有用性を初めて検討する。
論文 参考訳(メタデータ) (2023-10-26T18:03:46Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。