論文の概要: "Kya family planning after marriage hoti hai?": Integrating Cultural Sensitivity in an LLM Chatbot for Reproductive Health
- arxiv url: http://arxiv.org/abs/2502.15939v1
- Date: Fri, 21 Feb 2025 21:08:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:55:43.275377
- Title: "Kya family planning after marriage hoti hai?": Integrating Cultural Sensitivity in an LLM Chatbot for Reproductive Health
- Title(参考訳): 「婚姻放課後の家計計画」:LLMチャットボットにおける文化的感性の統合
- Authors: Roshini Deva, Dhruv Ramani, Tanvi Divate, Suhani Jalota, Azra Ismail,
- Abstract要約: 本研究では,インドの都市部における未成年女性との生殖医療のための文化的に適切なチャットボットの開発について検討した。
本研究は,「文化」を構成する地域環境の把握におけるシステムの長所と短所,複雑度を明らかにした。
- 参考スコア(独自算出の注目度): 7.827965302875148
- License:
- Abstract: Access to sexual and reproductive health information remains a challenge in many communities globally, due to cultural taboos and limited availability of healthcare providers. Public health organizations are increasingly turning to Large Language Models (LLMs) to improve access to timely and personalized information. However, recent HCI scholarship indicates that significant challenges remain in incorporating context awareness and mitigating bias in LLMs. In this paper, we study the development of a culturally-appropriate LLM-based chatbot for reproductive health with underserved women in urban India. Through user interactions, focus groups, and interviews with multiple stakeholders, we examine the chatbot's response to sensitive and highly contextual queries on reproductive health. Our findings reveal strengths and limitations of the system in capturing local context, and complexities around what constitutes "culture". Finally, we discuss how local context might be better integrated, and present a framework to inform the design of culturally-sensitive chatbots for community health.
- Abstract(参考訳): 性的・生殖的な健康情報へのアクセスは、文化的なタブーや医療提供者の限定的な利用のため、世界中の多くのコミュニティで課題となっている。
公衆衛生機関は、タイムリーでパーソナライズされた情報へのアクセスを改善するために、大規模言語モデル(LLM)に目を向けている。
しかし、近年のHCI奨学金は、LLMに文脈認識と緩和バイアスを取り入れる上で重要な課題が残っていることを示唆している。
本稿では,インドの都市部における未成年女性との生殖医療のための,文化的に適切なLLMベースのチャットボットの開発について検討する。
ユーザインタラクション,フォーカスグループ,複数の利害関係者とのインタビューを通じて,再現性に関するセンシティブでコンテキストの高いクエリに対するチャットボットの応答について検討する。
本研究は,「文化」を構成する地域環境や複雑度を捉える上で,システムの強みと限界を明らかにした。
最後に,地域環境をどう統合するかを議論し,文化に敏感なチャットボットの設計をコミュニティの健康に伝えるための枠組みを提案する。
関連論文リスト
- Leveraging Retrieval-Augmented Generation for Culturally Inclusive Hakka Chatbots: Design Insights and User Perceptions [4.388667614435888]
本研究は台湾のハッカ文化の豊かな遺産を推進・保護するための画期的なアプローチを紹介する。
外部データベースと生成AIモデルを統合することで、RAGテクノロジはこのギャップを埋める。
これは、デジタルプラットフォームが文化的アイデンティティを希薄にする時代において特に重要である。
論文 参考訳(メタデータ) (2024-10-21T01:36:08Z) - Leveraging Large Language Models for Patient Engagement: The Power of Conversational AI in Digital Health [1.8772687384996551]
大規模言語モデル(LLM)は、会話型AIを通じて医療における患者のエンゲージメントを変革する新たな機会を開いた。
4つのケーススタディを通して,LLMの非構造化会話データ処理能力を示す。
論文 参考訳(メタデータ) (2024-06-19T16:02:04Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Understanding the Capabilities and Limitations of Large Language Models for Cultural Commonsense [98.09670425244462]
大規模言語モデル(LLM)は、かなりの常識的理解を示している。
本稿では,文化的コモンセンスタスクの文脈におけるいくつかの最先端LCMの能力と限界について検討する。
論文 参考訳(メタデータ) (2024-05-07T20:28:34Z) - SUKHSANDESH: An Avatar Therapeutic Question Answering Platform for Sexual Education in Rural India [16.8154824364057]
インドなどでは、思春期の若者が最大の人口集団を形成しており、性的健康に関する重大な脆弱性に直面している。
我々の提案は、脆弱なインドの農村住民に、性教育のための安全で信頼できるプラットフォームを提供することを目的としている。
情報検索技術と大規模言語モデルを利用することで,SUKHSANDESHはユーザクエリに対して効果的な応答を提供する。
論文 参考訳(メタデータ) (2024-05-03T05:19:09Z) - CulturalTeaming: AI-Assisted Interactive Red-Teaming for Challenging LLMs' (Lack of) Multicultural Knowledge [69.82940934994333]
我々は、人間とAIのコラボレーションを活用して、挑戦的な評価データセットを構築するインタラクティブなレッドチームシステムであるCulturalTeamingを紹介する。
我々の研究は、CulturalTeamingの様々なAI支援モードが、文化的な質問の作成においてアノテータを支援することを明らかにした。
CULTURALBENCH-V0.1は、ユーザのリピートの試みにより、コンパクトだが高品質な評価データセットである。
論文 参考訳(メタデータ) (2024-04-10T00:25:09Z) - Understanding the Impact of Long-Term Memory on Self-Disclosure with
Large Language Model-Driven Chatbots for Public Health Intervention [15.430380965922325]
大規模言語モデル(LLM)は、オープンエンドの会話を通じて、健康情報公開を促進することで、公衆の健康モニタリングをサポートする可能性を提供する。
LLMを長期記憶(LTM)で拡張することは、エンゲージメントと自己開示を改善する機会を提供する。
論文 参考訳(メタデータ) (2024-02-17T18:05:53Z) - Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。