論文の概要: Emerging Challenges in Personalized Medicine: Assessing Demographic
Effects on Biomedical Question Answering Systems
- arxiv url: http://arxiv.org/abs/2310.10571v1
- Date: Mon, 16 Oct 2023 16:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 12:49:51.019497
- Title: Emerging Challenges in Personalized Medicine: Assessing Demographic
Effects on Biomedical Question Answering Systems
- Title(参考訳): パーソナライズドメディカル・メディカルにおける新たな課題 : バイオメディカル質問応答システムにおけるデモグラフィック効果の評価
- Authors: Sagi Shaier, Kevin Bennett, Lawrence Hunter, Katharina von der Wense
- Abstract要約: その結果,KGの回答の最大15%,テキストベースの回答の最大23%に,無関係な人口統計情報が変化することがわかった。
患者集団による不当な回答の変化は, 公平な懸念を生じさせる現象であり, 注意を払わなければならないと結論付けた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art question answering (QA) models exhibit a variety of social
biases (e.g., with respect to sex or race), generally explained by similar
issues in their training data. However, what has been overlooked so far is that
in the critical domain of biomedicine, any unjustified change in model output
due to patient demographics is problematic: it results in the unfair treatment
of patients. Selecting only questions on biomedical topics whose answers do not
depend on ethnicity, sex, or sexual orientation, we ask the following research
questions: (RQ1) Do the answers of QA models change when being provided with
irrelevant demographic information? (RQ2) Does the answer of RQ1 differ between
knowledge graph (KG)-grounded and text-based QA systems? We find that
irrelevant demographic information change up to 15% of the answers of a
KG-grounded system and up to 23% of the answers of a text-based system,
including changes that affect accuracy. We conclude that unjustified answer
changes caused by patient demographics are a frequent phenomenon, which raises
fairness concerns and should be paid more attention to.
- Abstract(参考訳): 最先端の質問応答(QA)モデルは様々な社会的バイアス(セックスや人種など)を示し、トレーニングデータに類似した問題によって一般的に説明される。
しかし、これまで見過ごされてきたのは、バイオメディシンのクリティカルな領域において、患者層によるモデルアウトプットの不正な変化は問題であり、患者の不公平な治療につながる。
回答が民族、性別、性的指向に依存しないバイオメディカルトピックについてのみを選定し、以下の研究課題を問う。 (RQ1) 人口統計情報に関連性がない場合、QAモデルの回答は変化するか?
(RQ2)
RQ1の答えは知識グラフ(KG)とテキストベースのQAシステムによって異なるのか?
関連しない人口統計情報では,kg接地システムの回答の最大15%,テキストベースシステムの回答の最大23%に変化し,精度に影響を与える変化を含むことがわかった。
患者集団による不当な回答の変化は, 公平な懸念を生じさせる現象であり, 注意を払わなければならないと結論付けた。
関連論文リスト
- Interpretable Medical Image Visual Question Answering via Multi-Modal
Relationship Graph Learning [45.746882253686856]
医用視覚質問応答 (VQA) は、入力医療画像に関する臨床的に関係のある質問に答えることを目的としている。
まず,胸部X線画像を中心に,包括的で大規模な医療用VQAデータセットを収集した。
このデータセットに基づいて、3つの異なる関係グラフを構築することによって,新たなベースライン手法を提案する。
論文 参考訳(メタデータ) (2023-02-19T17:46:16Z) - Medical Question Understanding and Answering with Knowledge Grounding
and Semantic Self-Supervision [53.692793122749414]
本稿では,知識基盤とセマンティック・セルフスーパービジョンを備えた医療質問理解・回答システムについて紹介する。
我々のシステムは、まず、教師付き要約損失を用いて、長い医学的、ユーザによる質問を要約するパイプラインである。
システムはまず、信頼された医療知識ベースから要約されたユーザ質問とFAQとをマッチングし、対応する回答文書から一定の数の関連文を検索する。
論文 参考訳(メタデータ) (2022-09-30T08:20:32Z) - Learning to Ask Like a Physician [24.15961995052862]
2,000以上の質問からなる新たな質問データセットDiSCQについて紹介する。
質問は、100以上のMIMIC-III放電サマリーの医療専門家によって生成される。
我々は、このデータセットを分析し、医療専門家が求めている情報のタイプを特徴付ける。
論文 参考訳(メタデータ) (2022-06-06T15:50:54Z) - Invariant Grounding for Video Question Answering [72.87173324555846]
Video Question Answering (ビデオQA)は、ビデオに関する質問に答えるタスクである。
先行するビデオQAモデルでは、典型的な学習目標である経験的リスク最小化(ERM)が、ビデオクエストペアと回答の間の表面的相関に基づく。
Invariant Grounding for VideoQA (IGV) という新たな学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T04:37:52Z) - Gender and Racial Bias in Visual Question Answering Datasets [24.075869811508404]
視覚的質問応答(VQA)データセットにおける性別と人種的偏見について検討する。
回答の分布は,男女関係の質問と,有害性・ステレオタイプ標本の存在とで大きく異なることが判明した。
この結果から,潜在的に有害なステレオタイプを考慮せずに,VQAデータセットを使用する危険性が示唆された。
論文 参考訳(メタデータ) (2022-05-17T07:33:24Z) - Medical Visual Question Answering: A Survey [55.53205317089564]
VQA(Medicical Visual Question Answering)は、医療用人工知能と一般的なVQA課題の組み合わせである。
医療用VQAシステムは,医療用画像と自然言語による臨床的に関連性のある質問を前提として,妥当かつ説得力のある回答を予測することが期待されている。
論文 参考訳(メタデータ) (2021-11-19T05:55:15Z) - Q-Pain: A Question Answering Dataset to Measure Social Bias in Pain
Management [5.044336341666555]
痛み管理の文脈におけるQAのバイアスを評価するためのデータセットであるQ-Painを紹介する。
本稿では, 治療決定の際に生じる潜在的なバイアスを測定するための, 実験設計のサンプルを含む, 厳密な新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T21:55:28Z) - Knowledge-Routed Visual Question Reasoning: Challenges for Deep
Representation Embedding [140.5911760063681]
VQAモデル評価のためのナレッジルーティング視覚質問推論という新しいデータセットを提案する。
視覚ゲノムシーングラフと外部知識ベースの両方に基づいて,制御プログラムを用いて質問応答対を生成する。
論文 参考訳(メタデータ) (2020-12-14T00:33:44Z) - Understanding Knowledge Gaps in Visual Question Answering: Implications
for Gap Identification and Testing [20.117014315684287]
我々は、知識ギャップ(KG)の分類を用いて、質問を1つまたは複数のタイプのKGでタグ付けする。
次に,各KGに対する質問の分布のスキューについて検討する。
これらの新しい質問は、既存のVQAデータセットに追加することで、質問の多様性を高め、スキューを減らすことができる。
論文 参考訳(メタデータ) (2020-04-08T00:27:43Z) - SQuINTing at VQA Models: Introspecting VQA Models with Sub-Questions [66.86887670416193]
現状のVQAモデルでは、知覚や推論の問題に答える上で同等の性能を持つが、一貫性の問題に悩まされていることを示す。
この欠点に対処するため、サブクエスト対応ネットワークチューニング(SQuINT)というアプローチを提案する。
我々は,SQuINTがモデル一貫性を5%向上し,VQAにおける推論問題の性能も改善し,注意マップも改善したことを示す。
論文 参考訳(メタデータ) (2020-01-20T01:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。