論文の概要: LunaAI: A Polite and Fair Healthcare Guidance Chatbot
- arxiv url: http://arxiv.org/abs/2602.18444v1
- Date: Mon, 12 Jan 2026 13:44:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.559853
- Title: LunaAI: A Polite and Fair Healthcare Guidance Chatbot
- Title(参考訳): LunaAI: 政治と公正な医療指導のチャットボット
- Authors: Yuvarani Ganesan, Salsabila Harlen, Azfar Rahman Bin Fazul Rahman, Akashdeep Singh, Zahra Fathanah, Raja Jamilah Raja Yusof,
- Abstract要約: 多くの既存のシステムは、患者の信頼を構築するのに不可欠な感情的知性、公平性、丁寧さに乏しい。
本研究では,医療用プロトタイプであるLunaAIを設計,評価することで,倫理的コミュニケーションの原則を統合するという課題に対処する。
- 参考スコア(独自算出の注目度): 0.7696728525672148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversational AI has significant potential in the healthcare sector, but many existing systems fall short in emotional intelligence, fairness, and politeness, which are essential for building patient trust. This gap reduces the effectiveness of digital health solutions and can increase user anxiety. This study addresses the challenge of integrating ethical communication principles by designing and evaluating LunaAI, a healthcare chatbot prototype. Using a user-centered design approach informed by a structured literature review, we developed conversational scenarios that handle both routine and hostile user interactions. The system was implemented using the Google Gemini API and deployed as a mobile-first Progressive Web App built with React, Vite, and Firebase. Preliminary user testing was conducted with a small participant group, and responses were evaluated using established frameworks such as the Godspeed Questionnaire. In addition, a comparative analysis was performed between LunaAI's tailored responses and the baseline outputs of an uncustomized large language model. The results indicate measurable improvements in key interaction qualities, with average user ratings of 4.7 out of 5 for politeness and 4.9 out of 5 for fairness. These findings highlight the importance of intentional ethical conversational design for human-computer interaction, particularly in sensitive healthcare contexts.
- Abstract(参考訳): 会話型AIは医療分野で大きな可能性を秘めているが、既存のシステムの多くは、患者の信頼を構築するのに不可欠な感情的知性、公平性、礼儀正しくない。
このギャップは、デジタルヘルスソリューションの有効性を低下させ、ユーザの不安を高める。
本研究では,医療チャットボットのプロトタイプであるLunaAIを設計・評価することで,倫理的コミュニケーションの原則を統合するという課題に対処する。
構造化文献レビューによりユーザ中心の設計手法を用いて,日常的なユーザインタラクションと敵対的なユーザインタラクションの両方を扱う対話シナリオを開発した。
このシステムはGoogle Gemini APIを使用して実装され、React、Vite、Firebaseで構築されたモバイルファーストのプログレッシブWebアプリとしてデプロイされた。
参加者数が少ないグループで予備的ユーザテストを実施し,Godspeed Questionnaireのような定評あるフレームワークを用いて回答を評価した。
さらに、LunaAIの調整された応答と、未一致の大規模言語モデルのベースライン出力の比較分析を行った。
その結果、キーインタラクションの質の計測可能な改善が示され、ユーザ評価は5つ中4.7、フェアネスでは5つ中4.9である。
これらの知見は、人間とコンピュータの相互作用、特に繊細な医療状況において、意図的な倫理的会話設計の重要性を浮き彫りにした。
関連論文リスト
- VERA-MH: Reliability and Validity of an Open-Source AI Safety Evaluation in Mental Health [0.0]
メンタルヘルス(VERA-MH)評価における倫理的で責任のあるAIの検証は、エビデンスベースの自動安全ベンチマークの緊急の必要性を満たすために最近提案された。
本研究は,自殺リスク検出および応答におけるAI安全性評価のためのVERA-MHの臨床的妥当性と信頼性を検討することを目的とした。
論文 参考訳(メタデータ) (2026-02-04T22:17:04Z) - VERA-MH Concept Paper [0.0]
本稿では,メンタルヘルスにおけるAIチャットボットの安全性を自動評価するVERA-MHを紹介する。
プロセスを完全に自動化するために、2つのアシラリーAIエージェントを使用しました。
シミュレーションされた会話は、そのルーリックに基づいてそれらをスコアする審査員に渡される。
論文 参考訳(メタデータ) (2025-10-17T04:07:29Z) - HumAIne-Chatbot: Real-Time Personalized Conversational AI via Reinforcement Learning [0.4931504898146351]
textbfHumAIne-chatbotはAIによる会話エージェントで、新しいユーザプロファイリングフレームワークを通じて応答をパーソナライズする。
ライブインタラクションの間、オンライン強化学習エージェントは暗黙の信号を組み合わせることで、ユーザ毎のモデルを洗練する。
その結果、パーソナライズ機能を有効にすると、ユーザ満足度、パーソナライズ精度、タスク達成度が一貫した改善が見られた。
論文 参考訳(メタデータ) (2025-09-04T15:16:38Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - Mentalic Net: Development of RAG-based Conversational AI and Evaluation Framework for Mental Health Support [0.0]
メンタルネット会話AIはBERTスコアが0.898であり、他の評価指標は満足のいく範囲内にある。
我々は,このようなトランスフォーメーション技術を開発する上で,人間-イン-ザ-ループアプローチと長期的かつ責任ある戦略を提唱する。
論文 参考訳(メタデータ) (2025-08-27T03:44:56Z) - From Interaction to Collaboration: How Hybrid Intelligence Enhances Chatbot Feedback [0.0]
本研究では,ユーザエンゲージメントとフィードバック行動に異なる2つの物語とフィードバック収集機構が与える影響について検討する。
当初,小規模調査では,フィードバックを残したり,システムを利用したり,システムを信頼したりすることの有意な違いは認められなかったが,HIの物語に暴露された参加者は統計的に,より詳細なフィードバックを得られていた。
論文 参考訳(メタデータ) (2025-03-08T07:36:36Z) - Mind the Gap! Static and Interactive Evaluations of Large Audio Models [55.87220295533817]
大型オーディオモデル(LAM)は、音声ネイティブな体験をパワーアップするために設計されている。
本研究は,484名の参加者から,LAMを評価し,7,500名のLAMインタラクションを収集する対話的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-21T20:29:02Z) - Ask Patients with Patience: Enabling LLMs for Human-Centric Medical Dialogue with Grounded Reasoning [25.068780967617485]
大規模言語モデル(LLM)は潜在的な解決策を提供するが、現実の臨床的相互作用に苦慮する。
Ask patients with Patience (APP) は,基礎的推論,透明な診断,人間中心のインタラクションを目的とした多ターンLCMベースの医療アシスタントである。
APPは共感的対話を通じてユーザ症状を誘発することでコミュニケーションを強化し、アクセシビリティとユーザエンゲージメントを大幅に改善する。
論文 参考訳(メタデータ) (2025-02-11T00:13:52Z) - On the Robustness of ChatGPT: An Adversarial and Out-of-distribution
Perspective [67.98821225810204]
本研究は,ChatGPTの頑健性について,敵対的視点とアウト・オブ・ディストリビューションの観点から評価する。
その結果,ほとんどの対人・OOD分類・翻訳作業において一貫した優位性を示した。
ChatGPTは対話関連テキストの理解において驚くべきパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-02-22T11:01:20Z) - Evaluating Human-Language Model Interaction [79.33022878034627]
我々は,対話型システムのコンポーネントを定義する,HALIE(Human-AI Language-based Interaction Evaluation)という新しいフレームワークを開発した。
ソーシャル対話,質問応答,クロスワードパズル,要約,メタファ生成という,対話のさまざまな形態をカバーする5つのタスクを設計する。
より優れた非対話的性能は、必ずしもより良い人間とLMの相互作用に必ずしも変換されない。
論文 参考訳(メタデータ) (2022-12-19T18:59:45Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。