論文の概要: SafeTalkCoach: Diversity-Driven Multi-Agent Simulation for Parent-Teen Health Conversations
- arxiv url: http://arxiv.org/abs/2602.00017v1
- Date: Wed, 14 Jan 2026 00:58:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.204895
- Title: SafeTalkCoach: Diversity-Driven Multi-Agent Simulation for Parent-Teen Health Conversations
- Title(参考訳): SafeTalkCoach:親の健康会話のための多様性駆動型マルチエージェントシミュレーション
- Authors: Benyamin Tabarsi, Wenbo Li, Tahreem Yasir, Aryan Santhosh Kumar, Laura Widman, Dongkuan Xu, Tiffany Barnes,
- Abstract要約: SafeTalkCoachは、性的健康に関する親子の会話をシミュレートするマルチエージェント対話生成フレームワークである。
私たちの目標は、SafeTalkCoachフレームワークとデータセットが、AI研究と健康コミュニケーションのプラクティスの両方をサポートすることです。
- 参考スコア(独自算出の注目度): 17.628872152805638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The importance of effective parent-child communication about sexual health is widely acknowledged, but real-world data on these conversations is scarce and challenging to collect, due to their private and sensitive nature. Although LLMs have been widely adopted in dialogue generation, they may deviate from best practices and frequently lack realism and diversity. We introduce SafeTalkCoach, a diversity-driven multi-agent dialogue generation framework that simulates parent-child conversations about sexual health, and present an accompanying dataset. SafeTalkCoach integrates crowd-sourced and synthesized scenarios, established sexual health guidelines, evidence-based personas, adaptive control modules, and hierarchical diversification. Through evaluations, we demonstrate that SafeTalkCoach generates diverse conversations while maintaining realism, communication quality, and controllability in practice. Our goal is that the SafeTalkCoach framework and the dataset support both AI research and health communications practices.
- Abstract(参考訳): 性的健康に関する効果的な親子コミュニケーションの重要性は広く認識されているが、これらの会話に関する実世界のデータは、プライベートで敏感な性質のため、収集が困難である。
LLMは対話生成において広く採用されているが、ベストプラクティスから逸脱し、リアリズムや多様性を欠いていることが多い。
セーフTalkCoachは,性保健に関する親子間の会話をシミュレートする多様性駆動型マルチエージェント対話生成フレームワークである。
SafeTalkCoachは、クラウドソースで合成されたシナリオ、確立された性的健康ガイドライン、エビデンスベースのペルソナ、適応制御モジュール、階層的多様化を統合している。
評価を通じて,SafeTalkCoachが現実性,コミュニケーション品質,現実性を維持しつつ多様な会話を生成できることを実証した。
私たちの目標は、SafeTalkCoachフレームワークとデータセットが、AI研究と健康コミュニケーションのプラクティスの両方をサポートすることです。
関連論文リスト
- Aligning Spoken Dialogue Models from User Interactions [55.192134724622235]
本稿では,ユーザの対話からリアルタイム会話における音声対話モデルを改善するための新しい嗜好アライメントフレームワークを提案する。
AIフィードバックを付加した生のマルチターン音声会話から15万以上の好みペアのデータセットを作成する。
本研究は, 自然なリアルタイム音声対話システムにおいて重要な, 様々な力学におけるバランスの整合性の重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-06-26T16:45:20Z) - Communication is All You Need: Persuasion Dataset Construction via Multi-LLM Communication [21.041517755843977]
大規模言語モデル (LLMs) は説得力のある対話を生成する能力を示したが、それらの出力の流布や高度化には懸念が持たれている。
本稿では,説得的データの自動生成を支援するためのマルチLLM通信フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-13T02:22:48Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Improving Dialog Safety using Socially Aware Contrastive Learning [8.503001932363704]
対人・カジュアル・ダイアログの文脈における社会性について検討する。
これらの問題に対処するための2段階の微調整プロセスを提案する。
私たちは、Moral Integrity Corpus(MIC)やProsocialDialogといったデータセットを活用することで、社会行動を統合するベースモデルをトレーニングします。
論文 参考訳(メタデータ) (2024-02-01T09:24:33Z) - Does Collaborative Human-LM Dialogue Generation Help Information
Extraction from Human Dialogues? [55.28340832822234]
実際のアプリケーションにおける人間の対話の問題解決は、既存のWizard-of-Ozコレクションよりもはるかに複雑である。
本稿では,リアルな対話を合成できる人間間対話生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-13T20:02:50Z) - Controllable Mixed-Initiative Dialogue Generation through Prompting [50.03458333265885]
混合開始対話タスクには、情報の繰り返し交換と会話制御が含まれる。
エージェントは、ポリシープランナーが定める特定の対話意図や戦略に従う応答を生成することにより、コントロールを得る。
標準的なアプローチは、これらの意図に基づいて生成条件を実行するために、訓練済みの言語モデルを微調整している。
代わりに、条件生成の微調整に代えて、大きな言語モデルをドロップインで置き換えるように促します。
論文 参考訳(メタデータ) (2023-05-06T23:11:25Z) - SMILE: Single-turn to Multi-turn Inclusive Language Expansion via ChatGPT for Mental Health Support [26.443929802292807]
大規模で現実的なマルチターン会話は、メンタルヘルスサポートの進歩を促進する可能性がある。
SMILE(シングルターンからマルチターンインクルーシブ言語拡張技術)を紹介する。
我々は,55kの対話からなるSMILECHATという,大規模で生活型,多様な対話データセットを生成する。
論文 参考訳(メタデータ) (2023-04-30T11:26:10Z) - Using In-Context Learning to Improve Dialogue Safety [45.303005593685036]
チャットボットからの応答のバイアスや毒性を低減するための検索手法について検討する。
コンテキスト内学習を使用して、モデルをより安全な世代に向けて操る。
本手法は,トレーニングを必要とせず,強いベースラインと競合する。
論文 参考訳(メタデータ) (2023-02-02T04:46:03Z) - HybriDialogue: An Information-Seeking Dialogue Dataset Grounded on
Tabular and Textual Data [87.67278915655712]
我々は、ウィキペディアのテキストとテーブルの両方を基盤とした、クラウドソーシングされた自然な会話からなる新しい対話データセットHybriDialogueを提示する。
これらの会話は、複雑なマルチホップ質問をシンプルで現実的なマルチターン対話に分解することで生成される。
論文 参考訳(メタデータ) (2022-04-28T00:52:16Z) - On the Safety of Conversational Models: Taxonomy, Dataset, and Benchmark [42.322782754346406]
本研究では,人間とロボットの対話に特有の不安全行動の把握を目的とした対話安全のための分類法を提案する。
DiaSafetyは6つの安全でないカテゴリのデータセットで、リッチなコンテキストに敏感なアンセーフな例をコンパイルします。
実験により、既存の発話レベルの安全ツールが我々のデータセットで破滅的に失敗することが示された。
論文 参考訳(メタデータ) (2021-10-16T04:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。