論文の概要: Robustness and Sensitivity of BERT Models Predicting Alzheimer's Disease
from Text
- arxiv url: http://arxiv.org/abs/2109.11888v1
- Date: Fri, 24 Sep 2021 11:15:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-27 14:15:50.503042
- Title: Robustness and Sensitivity of BERT Models Predicting Alzheimer's Disease
from Text
- Title(参考訳): テキストからアルツハイマー病を予測するBERTモデルのロバスト性と感度
- Authors: Jekaterina Novikova
- Abstract要約: BERTはテキストの言語的変動に対して頑健であることを示す。
一方,BERTはテキストから臨床的に重要な情報を取り除くことには敏感ではない。
- 参考スコア(独自算出の注目度): 6.013018381423765
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Understanding robustness and sensitivity of BERT models predicting
Alzheimer's disease from text is important for both developing better
classification models and for understanding their capabilities and limitations.
In this paper, we analyze how a controlled amount of desired and undesired text
alterations impacts performance of BERT. We show that BERT is robust to natural
linguistic variations in text. On the other hand, we show that BERT is not
sensitive to removing clinically important information from text.
- Abstract(参考訳): テキストからアルツハイマー病を予測するBERTモデルの堅牢性と感度を理解することは、より良い分類モデルの開発とそれらの能力と限界を理解するために重要である。
本稿では,望ましくないテキスト変更の制御量がBERTの性能に与える影響を解析する。
BERTはテキストの自然な言語変化に対して堅牢であることを示す。
一方,BERTはテキストから臨床的に重要な情報を取り除くことには敏感ではない。
関連論文リスト
- A BERT-Based Summarization approach for depression detection [1.7363112470483526]
うつ病は世界中で流行する精神疾患であり、対処されないと深刻な反感を引き起こす可能性がある。
機械学習と人工知能は、さまざまなデータソースからのうつ病指標を自律的に検出することができる。
本研究では,入力テキストの長さと複雑さを低減させる前処理手法として,テキスト要約を提案する。
論文 参考訳(メタデータ) (2024-09-13T02:14:34Z) - Watermarking Conditional Text Generation for AI Detection: Unveiling
Challenges and a Semantic-Aware Watermark Remedy [52.765898203824975]
本研究では,条件付きテキスト生成と入力コンテキストの特性を考慮した意味認識型透かしアルゴリズムを提案する。
実験結果から,提案手法は様々なテキスト生成モデルに対して大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-25T20:24:22Z) - Towards preserving word order importance through Forced Invalidation [80.33036864442182]
事前学習された言語モデルは単語の順序に敏感であることを示す。
我々は,単語順序の重要性を維持するために強制的無効化を提案する。
実験の結果,強制的無効化は単語順に対するモデルの感度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-04-11T13:42:10Z) - DECK: Behavioral Tests to Improve Interpretability and Generalizability
of BERT Models Detecting Depression from Text [4.269268432906194]
テキストからうつ病を正確に検出するモデルは、パンデミック後の精神疾患に対処するための重要なツールである。
BERTベースの分類器の有望な性能と市販の可用性は、このタスクの優れた候補となる。
DeCK(Depression ChecKlist)は、抑うつ特異的なモデル行動テストで、より優れた解釈性を実現する。
論文 参考訳(メタデータ) (2022-09-12T14:39:46Z) - An Interpretable End-to-end Fine-tuning Approach for Long Clinical Text [72.62848911347466]
EHRにおける非構造化臨床テキストには、意思決定支援、トライアルマッチング、振り返り研究を含むアプリケーションにとって重要な情報が含まれている。
最近の研究は、これらのモデルが他のNLPドメインにおける最先端の性能を考慮し、BERTベースのモデルを臨床情報抽出およびテキスト分類に応用している。
本稿では,SnipBERTという新しい微調整手法を提案する。SnipBERTは全音符を使用する代わりに,重要なスニペットを識別し,階層的に切り刻まれたBERTベースのモデルに供給する。
論文 参考訳(メタデータ) (2020-11-12T17:14:32Z) - Augmenting BERT Carefully with Underrepresented Linguistic Features [6.096779295981379]
変換器 (BERT) を用いた配列分類モデルにより, 人間の音声の転写からアルツハイマー病 (AD) を検出するのに有効であることが証明された。
従来の研究では、追加情報でモデルを増強することで、様々なタスクにおけるBERTのパフォーマンスを改善することが可能であった。
これらの特徴と組み合わせて調整したBERTは,細調整したBERT単独に比べて,AD分類の性能を最大5%向上させることを示した。
論文 参考訳(メタデータ) (2020-11-12T01:32:41Z) - GiBERT: Introducing Linguistic Knowledge into BERT through a Lightweight
Gated Injection Method [29.352569563032056]
本稿では,言語知識を単語埋め込みの形で,事前学習したBERTに明示的に注入する手法を提案する。
依存性ベースと逆適合の埋め込みを注入する場合、複数のセマンティックな類似性データセットのパフォーマンス改善は、そのような情報が有益であり、現在元のモデルから欠落していることを示している。
論文 参考訳(メタデータ) (2020-10-23T17:00:26Z) - Adversarial Watermarking Transformer: Towards Tracing Text Provenance
with Data Hiding [80.3811072650087]
自然言語の透かしを防御として研究し,テキストの出所の発見と追跡に役立てる。
本稿では,適応型透かし変換器(AWT)とエンコーダ・デコーダ・デコーダを併用した対向型透かし変換器(AWT)について述べる。
AWTは、テキストにデータを隠蔽する最初のエンドツーエンドモデルである。
論文 参考訳(メタデータ) (2020-09-07T11:01:24Z) - To BERT or Not To BERT: Comparing Speech and Language-based Approaches
for Alzheimer's Disease Detection [17.99855227184379]
自然言語処理と機械学習はアルツハイマー病(AD)を確実に検出するための有望な技術を提供する
最近のADReSSチャレンジデータセットにおいて、AD検出のための2つのアプローチのパフォーマンスを比較し、比較する。
認知障害検出における言語学の重要性を考えると,細調整BERTモデルはAD検出タスクにおいて特徴に基づくアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-07-26T04:50:47Z) - Adv-BERT: BERT is not robust on misspellings! Generating nature
adversarial samples on BERT [95.88293021131035]
しかし、悪意のある敵のインスタンスがしばしば存在するのではなく、テクトナチュラルなシナリオでモデルがどのように機能するかは定かではない。
この研究は、NLPにおける最先端のTransformerスタイルモデルであるBERTの、ノイズの多いデータを扱うための頑健さを体系的に探求する。
論文 参考訳(メタデータ) (2020-02-27T22:07:11Z) - Improving BERT Fine-Tuning via Self-Ensemble and Self-Distillation [84.64004917951547]
BERTのような微調整済みの言語モデルは、NLPにおいて効果的な方法となっている。
本稿では, BERTの微細調整を, 自己組織化と自己蒸留の2つの効果的なメカニズムで改善する。
論文 参考訳(メタデータ) (2020-02-24T16:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。