論文の概要: Exploring Text Specific and Blackbox Fairness Algorithms in Multimodal
Clinical NLP
- arxiv url: http://arxiv.org/abs/2011.09625v2
- Date: Thu, 10 Jun 2021 15:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 20:14:12.259930
- Title: Exploring Text Specific and Blackbox Fairness Algorithms in Multimodal
Clinical NLP
- Title(参考訳): マルチモーダルNLPにおけるテキスト特異性とブラックボックスフェアネスアルゴリズムの探索
- Authors: John Chen, Ian Berlot-Attwell, Safwan Hossain, Xindi Wang and Frank
Rudzicz
- Abstract要約: 本稿では,モダリティ非依存の公正性アルゴリズム,等化オッズポストプロセッシングについて検討し,テキスト固有の公正性アルゴリズムと比較する。
偏りのある単語埋め込みは、保護されたグループの等化確率に明示的に対応しないが、公平性に対するテキスト固有のアプローチは、性能のバランスと古典的な公正性の概念を同時に達成できることが示される。
- 参考スコア(独自算出の注目度): 19.936882021907266
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Clinical machine learning is increasingly multimodal, collected in both
structured tabular formats and unstructured forms such as freetext. We propose
a novel task of exploring fairness on a multimodal clinical dataset, adopting
equalized odds for the downstream medical prediction tasks. To this end, we
investigate a modality-agnostic fairness algorithm - equalized odds post
processing - and compare it to a text-specific fairness algorithm: debiased
clinical word embeddings. Despite the fact that debiased word embeddings do not
explicitly address equalized odds of protected groups, we show that a
text-specific approach to fairness may simultaneously achieve a good balance of
performance and classical notions of fairness. We hope that our paper inspires
future contributions at the critical intersection of clinical NLP and fairness.
The full source code is available here:
https://github.com/johntiger1/multimodal_fairness
- Abstract(参考訳): 臨床機械学習はますますマルチモーダルになり、構造化された表形式とfreetextのような非構造化形式の両方で収集される。
本稿では, 下流医療予測タスクに等化オッズを適用し, マルチモーダル臨床データセット上で公平性を探索する新しい課題を提案する。
そこで本研究では,モダリティ非依存の公正性アルゴリズム(オッズ処理の等化)について検討し,テキスト固有公正性アルゴリズムと比較した。
偏りのある単語埋め込みは、保護されたグループの等化確率に明示的に対応しないが、公平性に対するテキスト固有のアプローチは、性能のバランスと古典的な公正性の概念を同時に達成できることが示される。
我々は,臨床NLPと公正性の重要な交差に今後の貢献を促すことを願っている。
https://github.com/johntiger1/multimodal_fairness
関連論文リスト
- Post-processing fairness with minimal changes [5.927938174149359]
本稿では,モデルに依存しない新しいポストプロセッシングアルゴリズムを提案する。
我々のアルゴリズムは偏りのある予測と偏りのある予測の間の最小限の変化を強制するように設計されている。
論文 参考訳(メタデータ) (2024-08-27T14:26:56Z) - Fair Text Classification with Wasserstein Independence [4.887319013701134]
グループフェアネスはテキスト分類における中心的な研究テーマであり、センシティブなグループ間で公平な扱いを受けることはオープンな課題である。
本稿では,モデルアーキテクチャに非依存なニューラルテキスト分類におけるバイアス軽減手法を提案する。
論文 参考訳(メタデータ) (2023-11-21T15:51:06Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - A Multi-View Joint Learning Framework for Embedding Clinical Codes and
Text Using Graph Neural Networks [23.06795121693656]
我々は,テキストの可用性と前方性,およびICDコードの性能向上を両立させるため,コードとテキストから学習するフレームワークを提案する。
我々のアプローチでは、ICDコードを処理するグラフニューラルネットワーク(GNN)と、テキストを処理するBi-LSTMを用いています。
計画された外科手術用テキストを用いた実験では,BERTモデルが臨床データに微調整されたモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-01-27T09:19:03Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free
Guarantee [40.10641140860374]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - Intrinsic Probing through Dimension Selection [69.52439198455438]
現代のほとんどのNLPシステムは、様々なタスクにおいて驚くほど高いパフォーマンスが得られる事前訓練された文脈表現を使用している。
このような高いパフォーマンスは、ある種の言語構造がこれらの表現に根ざしない限りはあり得ず、それを探究する研究が盛んに行われている。
本稿では,言語情報が表現内でどのように構造化されているかを示す内在的探索と,先行研究で広く普及している外在的探索とを区別し,抽出に成功したことを示すことによって,そのような情報の存在を主張するのみである。
論文 参考訳(メタデータ) (2020-10-06T15:21:08Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Hurtful Words: Quantifying Biases in Clinical Contextual Word Embeddings [16.136832979324467]
本研究は,MIMIC-III 病院データセットから医療用ノートにディープ埋め込みモデル(BERT)を事前訓練する。
文脈的単語埋め込みによって捉えられる危険な潜伏関係を同定する。
我々は,50以上の下流臨床予測課題において,フェアネスの定義の異なる性能ギャップを評価する。
論文 参考訳(メタデータ) (2020-03-11T23:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。