論文の概要: Sex Trouble: Common pitfalls in incorporating sex/gender in medical
machine learning and how to avoid them
- arxiv url: http://arxiv.org/abs/2203.08227v1
- Date: Tue, 15 Mar 2022 20:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 08:38:47.723415
- Title: Sex Trouble: Common pitfalls in incorporating sex/gender in medical
machine learning and how to avoid them
- Title(参考訳): 性障害: 医学的機械学習における性/生殖機能導入の落とし穴と回避方法
- Authors: Kendra Albert and Maggie Delano
- Abstract要約: 私たちは、セックス/ジェンダーデータを扱うときに、研究者が犯す3つのよくある間違いを特定します。
性的混乱(sex confusion) — データセット内のセックスが何を行うか、意味しないかを識別できないこと。
性執着(sex obsession)は、性、特に出生時に割り当てられた性は、ほとんどの応用において関連する変数である、という信念である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: False assumptions about sex and gender are deeply embedded in the medical
system, including that they are binary, static, and concordant. Machine
learning researchers must understand the nature of these assumptions in order
to avoid perpetuating them. In this perspectives piece, we identify three
common mistakes that researchers make when dealing with sex/gender data: "sex
confusion", the failure to identity what sex in a dataset does or doesn't mean;
"sex obsession", the belief that sex, specifically sex assigned at birth, is
the relevant variable for most applications; and "sex/gender slippage", the
conflation of sex and gender even in contexts where only one or the other is
known. We then discuss how these pitfalls show up in machine learning studies
based on electronic health record data, which is commonly used for everything
from retrospective analysis of patient outcomes to the development of
algorithms to predict risk and administer care. Finally, we offer a series of
recommendations about how machine learning researchers can produce both
research and algorithms that more carefully engage with questions of
sex/gender, better serving all patients, including transgender people.
- Abstract(参考訳): 性別や性別に関する虚偽の仮定は、二進法、静的、調和性を含む医療システムに深く埋め込まれている。
機械学習の研究者たちは、これらの仮定の性質を理解して、それらの永続性を避ける必要がある。
この観点では、研究者がセックス/ジェンダーデータを扱う際に犯す3つの一般的な誤りを識別する:「セックス・混乱」、データセット内のセックスが何を行うか、意味しないかを識別できないこと、「セックス・オブッセッション」、セックス、特に出生時に割り当てられたセックスは、ほとんどのアプリケーションにとって関連する変数である、という信念、セックスとジェンダーの融合である「セックス/ジェンダー・スリップ」。
次に、これらの落とし穴が、患者の成果の振り返り分析から、リスク予測とケア管理のためのアルゴリズムの開発まで、あらゆる場面で一般的に使用される電子健康記録データに基づいて、機械学習研究にどのように現れるかについて議論する。
最後に、私たちは、トランスジェンダーの人々を含むすべての患者により良いサービスを提供し、セックス/ジェンダーの質問にもっと注意深く関与する、研究とアルゴリズムの両方を機械学習研究者がいかに作成できるかについて、一連の推奨を提供している。
関連論文リスト
- MisgenderMender: A Community-Informed Approach to Interventions for Misgendering [29.480032219310157]
間違いを犯し、他人の性別に誤って対処し、深刻な危害を与え、日々の技術に浸透する。
米国におけるジェンダー・ディバースの個人に対する調査を実施することで、ミスジェンダーの介入に関するこの研究の欠如に対処するのはこれが初めてである。
ミスジェンダー, 望ましい解決策, 関連する懸念の頻度に関する調査結果に基づいて, ミスジェンダーの介入タスクと評価データセットであるMisgenderMenderを導入する。
論文 参考訳(メタデータ) (2024-04-23T02:54:00Z) - Much Ado About Gender: Current Practices and Future Recommendations for
Appropriate Gender-Aware Information Access [3.3903891679981593]
情報アクセス研究(と開発)は時にジェンダーを利用する。
この研究は、ジェンダーが何であるかの現在の理解と一致していないジェンダーについて様々な仮定を下している。
私たちがレビューするほとんどの論文は、性別が2つのカテゴリに分けることができないことを認めたとしても、性別のバイナリな概念に依存しています。
論文 参考訳(メタデータ) (2023-01-12T01:21:02Z) - Temporal Analysis and Gender Bias in Computing [0.0]
何十年にもわたって性別が変わる「レスリー問題」
この記事では、1925-1975年に測定可能な「ジェンダーシフト」を持つ300の与えられた名前を特定する。
この記事は、数十年前の女性の過多(および男性の過小評価)を招きかねない「女性シフト」が存在することを定量的に示している。
論文 参考訳(メタデータ) (2022-09-29T00:29:43Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Theories of "Gender" in NLP Bias Research [0.0]
NLPにおけるジェンダーバイアスに関する200近い記事を調査した。
記事の大多数は、性別に関する理論を明示していない。
多くの人は、トランス、ノンバイナリ、インターセックスの人々の存在と経験を無視した方法で、性の特徴、社会的性別、言語性について説明している。
論文 参考訳(メタデータ) (2022-05-05T09:20:53Z) - "This Whole Thing Smacks of Gender": Algorithmic Exclusion in
Bioimpedance-based Body Composition Analysis [0.0]
スマートウェイトスケールは、純粋なボディウェイト測定の補助として、生体インピーダンスに基づくボディコンポジション分析を提供する。
白人の非バイナリーの人々は、体に関して、彼らのスマートスケールがそれほど賢くないと感じる人々の氷山の一角である。
パーソナルヘルス技術におけるトランス・ノンバイナリ・インクルージョンの問題は,第3の「ジェンダー」ボックスの追加や,パッケージにレインボーフラッグを貼るといった問題に留まらない。
論文 参考訳(メタデータ) (2021-01-20T21:20:39Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition [51.856693288834975]
最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-14T08:54:03Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Opportunities and Challenges of Deep Learning Methods for
Electrocardiogram Data: A Systematic Review [62.490310870300746]
心電図(Electrocardiogram、ECG)は、医学および医療において最も一般的に用いられる診断ツールの1つである。
深層学習法は心電図信号を用いた予測医療タスクにおいて有望な結果を得た。
本稿では、モデリングとアプリケーションの観点から、ECGデータに対するディープラーニング手法の体系的なレビューを行う。
論文 参考訳(メタデータ) (2019-12-28T02:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。