論文の概要: Health Disparities through Generative AI Models: A Comparison Study
Using A Domain Specific large language model
- arxiv url: http://arxiv.org/abs/2310.18355v1
- Date: Mon, 23 Oct 2023 21:24:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-05 13:54:59.104050
- Title: Health Disparities through Generative AI Models: A Comparison Study
Using A Domain Specific large language model
- Title(参考訳): 生成型aiモデルによる健康格差:ドメイン特化大規模言語モデルを用いた比較研究
- Authors: Yohn Jairo Parra Bautista, Vinicious Lima, Carlos Theran, Richard Alo
- Abstract要約: 大規模言語モデル(LLM)と呼ばれる人工知能プログラムは、人間の言語を理解し、生成することができる。
本稿では,SciBERTのようなドメイン固有な大規模言語モデルの比較研究を紹介する。
臨床医は、患者と非同期に通信する際に、生成AIを使用してドラフトレスポンスを作成することができると信じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Health disparities are differences in health outcomes and access to
healthcare between different groups, including racial and ethnic minorities,
low-income people, and rural residents. An artificial intelligence (AI) program
called large language models (LLMs) can understand and generate human language,
improving health communication and reducing health disparities. There are many
challenges in using LLMs in human-doctor interaction, including the need for
diverse and representative data, privacy concerns, and collaboration between
healthcare providers and technology experts. We introduce the comparative
investigation of domain-specific large language models such as SciBERT with a
multi-purpose LLMs BERT. We used cosine similarity to analyze text queries
about health disparities in exam rooms when factors such as race are used
alone. Using text queries, SciBERT fails when it doesn't differentiate between
queries text: "race" alone and "perpetuates health disparities." We believe
clinicians can use generative AI to create a draft response when communicating
asynchronously with patients. However, careful attention must be paid to ensure
they are developed and implemented ethically and equitably.
- Abstract(参考訳): 健康格差は、人種と民族のマイノリティ、低所得者、農村住民など、異なるグループ間の健康結果と医療へのアクセスの違いである。
大規模言語モデル(LLM)と呼ばれる人工知能(AI)プログラムは、人間の言語を理解し、生成し、健康コミュニケーションを改善し、健康格差を減らすことができる。
人間と医師の対話にllmを使用するには、多様な代表的データ、プライバシの懸念、医療提供者と技術専門家のコラボレーションなど、多くの課題がある。
本稿では,SciBERT や多目的 LLM BERT など,ドメイン固有の大規模言語モデルの比較研究を紹介する。
試験室の健康格差に関するテキストクエリを,人種などの要因を単独で使用する場合,コサイン類似性を用いて分析した。
テキストクエリを使用すると、scibertは"race" と "perpetuates health differences" という2つのクエリを区別しない場合に失敗する。
臨床医は、患者と非同期に通信する際に、生成AIを使用してドラフトレスポンスを作成することができると信じている。
しかし、倫理的かつ公平に開発・実施されるためには注意が必要である。
関連論文リスト
- BRIGHTER: BRIdging the Gap in Human-Annotated Textual Emotion Recognition Datasets for 28 Languages [93.92804151830744]
BRIGHTERは28の言語で感情アノテートされたデータセットの集合である。
データ収集とアノテーションプロセスとこれらのデータセット構築の課題について説明する。
BRIGHTERデータセットは、テキストベースの感情認識のギャップを埋めるためのステップであることを示す。
論文 参考訳(メタデータ) (2025-02-17T15:39:50Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - RFBES at SemEval-2024 Task 8: Investigating Syntactic and Semantic
Features for Distinguishing AI-Generated and Human-Written Texts [0.8437187555622164]
本稿では、意味論と構文という2つの異なる側面からAIが生成するテキスト検出の問題について考察する。
マルチリンガルタスクとモノリンガルタスクの両方において,AI生成テキストと人書きテキストを高い精度で区別できるAIモデルを提案する。
論文 参考訳(メタデータ) (2024-02-19T00:40:17Z) - Divergences between Language Models and Human Brains [59.100552839650774]
我々は,人間と機械語処理の相違点を体系的に探求する。
我々は、LMがうまく捉えられない2つの領域、社会的/感情的知性と身体的常識を識別する。
以上の結果から,これらの領域における微調整LMは,ヒト脳反応との整合性を向上させることが示唆された。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z) - LaTeX: Language Pattern-aware Triggering Event Detection for Adverse
Experience during Pandemics [10.292364075312667]
新型コロナウイルス(COVID-19)のパンデミックは、米国の様々な民族集団における社会経済的格差を強調させた。
本稿では,不足と課題の両面においてソーシャルメディアが果たす役割について考察する。
4種類の有害体験に関連する言語パターンを解析する。
論文 参考訳(メタデータ) (2023-10-05T23:09:31Z) - The Imitation Game: Detecting Human and AI-Generated Texts in the Era of
ChatGPT and BARD [3.2228025627337864]
異なるジャンルの人文・AI生成テキストのデータセットを新たに導入する。
テキストを分類するために、いくつかの機械学習モデルを使用します。
結果は、人間とAIが生成したテキストを識別する上で、これらのモデルの有効性を示す。
論文 参考訳(メタデータ) (2023-07-22T21:00:14Z) - Is This Abstract Generated by AI? A Research for the Gap between
AI-generated Scientific Text and Human-written Scientific Text [13.438933219811188]
本稿では,AIが生み出す科学内容と人間による文章とのギャップについて検討する。
我々は、AI生成科学テキストと人文科学テキストの間に、文章スタイルのギャップがあることを発見した。
論文 参考訳(メタデータ) (2023-01-24T04:23:20Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Crossing the Conversational Chasm: A Primer on Multilingual
Task-Oriented Dialogue Systems [51.328224222640614]
大規模な学習済みニューラルネットワークモデルに基づく最新のTODモデルは、データ空腹です。
ToDのユースケースのデータ取得は高価で面倒だ。
論文 参考訳(メタデータ) (2021-04-17T15:19:56Z) - Towards Fairness in Classifying Medical Conversations into SOAP Sections [2.1485350418225244]
我々は、医師と患者の会話を医療用SOAPノートのセクションに分類するモデルにおいて、格差を特定し、理解する。
これらの会話における言語に関するより深い分析は、これらの違いが医学的アポイントメントのタイプに関係しており、しばしば関連していることを示している。
我々の発見は、データ自体に存在する可能性のある格差を理解することの重要性と、モデルが利益を均等に分配する能力にどのように影響するかを強調します。
論文 参考訳(メタデータ) (2020-12-02T14:55:22Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。