論文の概要: Health Disparities through Generative AI Models: A Comparison Study
Using A Domain Specific large language model
- arxiv url: http://arxiv.org/abs/2310.18355v1
- Date: Mon, 23 Oct 2023 21:24:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-05 13:54:59.104050
- Title: Health Disparities through Generative AI Models: A Comparison Study
Using A Domain Specific large language model
- Title(参考訳): 生成型aiモデルによる健康格差:ドメイン特化大規模言語モデルを用いた比較研究
- Authors: Yohn Jairo Parra Bautista, Vinicious Lima, Carlos Theran, Richard Alo
- Abstract要約: 大規模言語モデル(LLM)と呼ばれる人工知能プログラムは、人間の言語を理解し、生成することができる。
本稿では,SciBERTのようなドメイン固有な大規模言語モデルの比較研究を紹介する。
臨床医は、患者と非同期に通信する際に、生成AIを使用してドラフトレスポンスを作成することができると信じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Health disparities are differences in health outcomes and access to
healthcare between different groups, including racial and ethnic minorities,
low-income people, and rural residents. An artificial intelligence (AI) program
called large language models (LLMs) can understand and generate human language,
improving health communication and reducing health disparities. There are many
challenges in using LLMs in human-doctor interaction, including the need for
diverse and representative data, privacy concerns, and collaboration between
healthcare providers and technology experts. We introduce the comparative
investigation of domain-specific large language models such as SciBERT with a
multi-purpose LLMs BERT. We used cosine similarity to analyze text queries
about health disparities in exam rooms when factors such as race are used
alone. Using text queries, SciBERT fails when it doesn't differentiate between
queries text: "race" alone and "perpetuates health disparities." We believe
clinicians can use generative AI to create a draft response when communicating
asynchronously with patients. However, careful attention must be paid to ensure
they are developed and implemented ethically and equitably.
- Abstract(参考訳): 健康格差は、人種と民族のマイノリティ、低所得者、農村住民など、異なるグループ間の健康結果と医療へのアクセスの違いである。
大規模言語モデル(LLM)と呼ばれる人工知能(AI)プログラムは、人間の言語を理解し、生成し、健康コミュニケーションを改善し、健康格差を減らすことができる。
人間と医師の対話にllmを使用するには、多様な代表的データ、プライバシの懸念、医療提供者と技術専門家のコラボレーションなど、多くの課題がある。
本稿では,SciBERT や多目的 LLM BERT など,ドメイン固有の大規模言語モデルの比較研究を紹介する。
試験室の健康格差に関するテキストクエリを,人種などの要因を単独で使用する場合,コサイン類似性を用いて分析した。
テキストクエリを使用すると、scibertは"race" と "perpetuates health differences" という2つのクエリを区別しない場合に失敗する。
臨床医は、患者と非同期に通信する際に、生成AIを使用してドラフトレスポンスを作成することができると信じている。
しかし、倫理的かつ公平に開発・実施されるためには注意が必要である。
関連論文リスト
- RFBES at SemEval-2024 Task 8: Investigating Syntactic and Semantic
Features for Distinguishing AI-Generated and Human-Written Texts [0.8437187555622164]
本稿では、意味論と構文という2つの異なる側面からAIが生成するテキスト検出の問題について考察する。
マルチリンガルタスクとモノリンガルタスクの両方において,AI生成テキストと人書きテキストを高い精度で区別できるAIモデルを提案する。
論文 参考訳(メタデータ) (2024-02-19T00:40:17Z) - M4GT-Bench: Evaluation Benchmark for Black-Box Machine-Generated Text
Detection [70.96684450854274]
大規模言語モデル(LLM)は、機械生成テキスト(MGT)に前例のない急上昇をもたらした。
このことは、その潜在的な誤用と社会的意味に関する正当な懸念を提起する。
これらの内容と本物の人間生成テキストを識別し区別する必要性は、偽情報との戦いにおいて重要である。
論文 参考訳(メタデータ) (2024-02-17T02:50:33Z) - Divergences between Language Models and Human Brains [63.405788999891335]
最近の研究は、言語モデルの内部表現(LM)を用いて脳信号が効果的に予測できることを示唆している。
我々は、LMと人間が言語をどのように表現し、使用するかに明確な違いがあることを示します。
我々は、社会的・情緒的知性と身体的常識という、LMによってうまく捉えられていない2つの領域を識別する。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z) - LaTeX: Language Pattern-aware Triggering Event Detection for Adverse
Experience during Pandemics [10.292364075312667]
新型コロナウイルス(COVID-19)のパンデミックは、米国の様々な民族集団における社会経済的格差を強調させた。
本稿では,不足と課題の両面においてソーシャルメディアが果たす役割について考察する。
4種類の有害体験に関連する言語パターンを解析する。
論文 参考訳(メタデータ) (2023-10-05T23:09:31Z) - Unbiased Pain Assessment through Wearables and EHR Data: Multi-attribute
Fairness Loss-based CNN Approach [3.799109312082668]
本稿では,MAFL(Multi-Atribute Fairness Loss)に基づくCNNモデルを提案する。
提案手法と既存の緩和手順を比較し, 実装されたモデルが最先端の手法と対照的に良好に機能することを明らかにする。
論文 参考訳(メタデータ) (2023-07-03T09:21:36Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - Is This Abstract Generated by AI? A Research for the Gap between
AI-generated Scientific Text and Human-written Scientific Text [13.438933219811188]
本稿では,AIが生み出す科学内容と人間による文章とのギャップについて検討する。
我々は、AI生成科学テキストと人文科学テキストの間に、文章スタイルのギャップがあることを発見した。
論文 参考訳(メタデータ) (2023-01-24T04:23:20Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Crossing the Conversational Chasm: A Primer on Multilingual
Task-Oriented Dialogue Systems [51.328224222640614]
大規模な学習済みニューラルネットワークモデルに基づく最新のTODモデルは、データ空腹です。
ToDのユースケースのデータ取得は高価で面倒だ。
論文 参考訳(メタデータ) (2021-04-17T15:19:56Z) - Towards Fairness in Classifying Medical Conversations into SOAP Sections [2.1485350418225244]
我々は、医師と患者の会話を医療用SOAPノートのセクションに分類するモデルにおいて、格差を特定し、理解する。
これらの会話における言語に関するより深い分析は、これらの違いが医学的アポイントメントのタイプに関係しており、しばしば関連していることを示している。
我々の発見は、データ自体に存在する可能性のある格差を理解することの重要性と、モデルが利益を均等に分配する能力にどのように影響するかを強調します。
論文 参考訳(メタデータ) (2020-12-02T14:55:22Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。