論文の概要: Domain-specific or Uncertainty-aware models: Does it really make a difference for biomedical text classification?
- arxiv url: http://arxiv.org/abs/2407.12626v1
- Date: Wed, 17 Jul 2024 14:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-18 16:45:33.216692
- Title: Domain-specific or Uncertainty-aware models: Does it really make a difference for biomedical text classification?
- Title(参考訳): ドメイン固有または不確実性認識モデル: バイオメディカルテキスト分類において本当に違いがあるか?
- Authors: Aman Sinha, Timothee Mickus, Marianne Clausel, Mathieu Constant, Xavier Coubez,
- Abstract要約: ドメインの特異性と不確実性認識が組み合わさって、モデル自身の不確実性を合理的に推定する方法について論じる。
ドメインの特異性と不確実性に対する認識は、しばしばうまく組み合わせられるが、正確なタスクはより強く重み付けされている。
- 参考スコア(独自算出の注目度): 4.741884506444161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of pretrained language models (PLMs) across a spate of use-cases has led to significant investment from the NLP community towards building domain-specific foundational models. On the other hand, in mission critical settings such as biomedical applications, other aspects also factor in-chief of which is a model's ability to produce reasonable estimates of its own uncertainty. In the present study, we discuss these two desiderata through the lens of how they shape the entropy of a model's output probability distribution. We find that domain specificity and uncertainty awareness can often be successfully combined, but the exact task at hand weighs in much more strongly.
- Abstract(参考訳): 先進的な言語モデル(PLM)の成功は、NLPコミュニティからドメイン固有の基礎モデル構築への多大な投資につながった。
一方、バイオメディカル・アプリケーションのようなミッションクリティカル・セッティングにおいて、他の側面は、モデルが自身の不確実性を合理的に見積もる能力である主要因でもある。
本研究では,これらの2つのデシラタについて,モデルの出力確率分布のエントロピーをどのように形成するかのレンズを通して論じる。
ドメインの特異性と不確実性に対する認識は、しばしばうまく組み合わせられるが、正確なタスクはより強く重み付けされている。
関連論文リスト
- A Review of Bayesian Uncertainty Quantification in Deep Probabilistic Image Segmentation [0.0]
画像セグメンテーションの進歩は、ディープラーニングベースのコンピュータビジョンの広い範囲において重要な役割を果たす。
この文脈において不確かさの定量化が広く研究され、モデル無知(認識の不確実性)やデータ曖昧さ(アラート的不確実性)を表現し、不正な意思決定を防ぐことができる。
この研究は、分野の進歩を左右する不確実性の基本概念と様々なタスクへの応用について議論することで、確率的セグメンテーションの包括的概要を提供する。
論文 参考訳(メタデータ) (2024-11-25T13:26:09Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Determining Domain of Machine Learning Models using Kernel Density Estimates: Applications in Materials Property Prediction [1.8551396341435895]
我々は,カーネル密度推定を用いたモデル領域の評価手法を開発した。
確立された化学知識に基づく無関係と判断された化学物質群は,本測定値と有意な相違が認められた。
相違性の高い尺度は、モデル性能の低さとモデル不確実性の評価の低さと関連している。
論文 参考訳(メタデータ) (2024-05-28T15:41:16Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - On the Interventional Kullback-Leibler Divergence [11.57430292133273]
因果モデル間の構造的差異と分布的差異を定量化するために、Interventional Kullback-Leibler divergenceを導入する。
本稿では,介入対象に対する十分な条件を提案し,モデルが確実に一致または一致しない観察変数のサブセットを同定する。
論文 参考訳(メタデータ) (2023-02-10T17:03:29Z) - Multi-modal multi-objective model-based genetic programming to find
multiple diverse high-quality models [0.0]
遺伝的プログラミング(GP)は、しばしば説明可能な人工知能(XAI)に貢献するのに一意に適しているとされる。
本稿では,GP-GOMEAと呼ばれる現代モデルに基づくGPアルゴリズムを拡張した,新しいマルチモーダルマルチツリー多目的GPアプローチにより,これを正確に実現する。
論文 参考訳(メタデータ) (2022-03-24T21:35:07Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - A comprehensive comparative evaluation and analysis of Distributional
Semantic Models [61.41800660636555]
我々は、静的DSMによって生成されたり、BERTによって生成された文脈化されたベクトルを平均化して得られるような、型分布ベクトルの包括的評価を行う。
その結果、予測ベースモデルの優越性は現実よりも明らかであり、ユビキタスではないことが明らかとなった。
我々は認知神経科学からRepresentational similarity Analysis(RSA)の方法論を借りて、分布モデルによって生成された意味空間を検査する。
論文 参考訳(メタデータ) (2021-05-20T15:18:06Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。