論文の概要: Assistive Completion of Agrammatic Aphasic Sentences: A Transfer
Learning Approach using Neurolinguistics-based Synthetic Dataset
- arxiv url: http://arxiv.org/abs/2211.05557v1
- Date: Thu, 10 Nov 2022 13:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 15:41:46.856544
- Title: Assistive Completion of Agrammatic Aphasic Sentences: A Transfer
Learning Approach using Neurolinguistics-based Synthetic Dataset
- Title(参考訳): agrammatic aphasic sentencesの補完的補完--ニューロ言語学に基づく合成データセットを用いたトランスファーラーニングアプローチ
- Authors: Rohit Misra, Sapna S Mishra and Tapan K. Gandhi
- Abstract要約: 下前頭回への損傷は失語症を引き起こすことがある。
患者は理解できるが、完全な文章を形成する能力は欠如している。
- 参考スコア(独自算出の注目度): 0.8831954614241233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Damage to the inferior frontal gyrus (Broca's area) can cause agrammatic
aphasia wherein patients, although able to comprehend, lack the ability to form
complete sentences. This inability leads to communication gaps which cause
difficulties in their daily lives. The usage of assistive devices can help in
mitigating these issues and enable the patients to communicate effectively.
However, due to lack of large scale studies of linguistic deficits in aphasia,
research on such assistive technology is relatively limited. In this work, we
present two contributions that aim to re-initiate research and development in
this field. Firstly, we propose a model that uses linguistic features from
small scale studies on aphasia patients and generates large scale datasets of
synthetic aphasic utterances from grammatically correct datasets. We show that
the mean length of utterance, the noun/verb ratio, and the simple/complex
sentence ratio of our synthetic datasets correspond to the reported features of
aphasic speech. Further, we demonstrate how the synthetic datasets may be
utilized to develop assistive devices for aphasia patients. The pre-trained T5
transformer is fine-tuned using the generated dataset to suggest 5 corrected
sentences given an aphasic utterance as input. We evaluate the efficacy of the
T5 model using the BLEU and cosine semantic similarity scores. Affirming
results with BLEU score of 0.827/1.00 and semantic similarity of 0.904/1.00
were obtained. These results provide a strong foundation for the concept that a
synthetic dataset based on small scale studies on aphasia can be used to
develop effective assistive technology.
- Abstract(参考訳): 下前頭回損傷(broca's area)は失語症の原因となり、患者は理解できたが、完全な文を形成する能力に欠ける。
この障害はコミュニケーションのギャップを招き、日々の生活に困難をもたらす。
補助装置の使用は、これらの問題を緩和し、患者が効果的にコミュニケーションできるようにするのに役立つ。
しかし、失語症における言語障害の大規模研究が欠如しているため、このような支援技術の研究は比較的限られている。
本研究では,この分野での研究・開発を再開するための2つの貢献について述べる。
まず,失語症患者に関する小規模研究から言語的特徴を抽出し,文法的に正しいデータセットから合成失語音声の大規模データセットを生成するモデルを提案する。
本研究は, 発話の平均長, 名詞/動詞比, および合成データセットの単純/複合文比が, 失語性音声の特徴に対応していることを示す。
さらに,これらの合成データセットを用いて失語症患者に対する補助装置の開発方法を示す。
予め訓練されたt5トランスは、生成されたデータセットを使用して微調整され、失語を入力として5つの修正文を示唆する。
BLEUとコサイン意味類似度スコアを用いてT5モデルの有効性を評価する。
BLEUスコアは0.827/1.00,セマンティック類似度は0.904/1.00であった。
これらの結果は,失語症に関する小規模な研究に基づく合成データセットを有効支援技術開発に活用できるという概念の基盤となる。
関連論文リスト
- A Lesion-aware Edge-based Graph Neural Network for Predicting Language Ability in Patients with Post-stroke Aphasia [12.129896943547912]
本稿では,脳卒中後失語症患者の安静時fMRI(r-fMRI)接続から言語能力を予測するために,病変認識型グラフニューラルネットワーク(LEGNet)を提案する。
本モデルでは,脳領域間の機能的接続を符号化するエッジベース学習モジュール,病変符号化モジュール,サブグラフ学習モジュールの3つのコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-03T21:28:48Z) - Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - Detecting the Clinical Features of Difficult-to-Treat Depression using
Synthetic Data from Large Language Models [0.20971479389679337]
我々は,日常的に収集された物語(自由テキスト)電子健康記録データを問うことができるLarge Language Model(LLM)ベースのツールの開発を目指している。
LLM生成合成データ(GPT3.5)と非最大抑圧(NMS)アルゴリズムを用いてBERTに基づくスパン抽出モデルを訓練する。
以上の結果から,20因子のセットによる臨床データによる総合成績 (0.70 F1) と重要なDTDのサブセットにおける高いパフォーマンス (0.85 F1 と 0.95 の精度) が得られた。
論文 参考訳(メタデータ) (2024-02-12T13:34:33Z) - Syntax and Semantics Meet in the "Middle": Probing the Syntax-Semantics
Interface of LMs Through Agentivity [68.8204255655161]
このような相互作用を探索するためのケーススタディとして,作用性のセマンティックな概念を提示する。
これは、LMが言語アノテーション、理論テスト、発見のためのより有用なツールとして役立つ可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T16:24:01Z) - Synthetic Pre-Training Tasks for Neural Machine Translation [16.6378815054841]
我々のゴールは、合成資源を使用する場合の事前学習モデルの有効性に寄与する要因を理解することである。
本稿では,語彙的および構造的知識のレベルが異なる事前学習型翻訳モデルを提案する。
複数の言語ペアに対する実験により,高レベルの難読化や純粋に合成された並列データであっても,事前学習のメリットが実現できることが明らかになった。
論文 参考訳(メタデータ) (2022-12-19T21:34:00Z) - Synthesising Electronic Health Records: Cystic Fibrosis Patient Group [3.255030588361125]
本稿では,患者電子健康記録を合成する合成データ生成機能について検討する。
本研究では, 患者結果分類のための合成データの有用性を検証し, 不均衡なデータセットを合成データで拡張する際の予測性能の向上を検証した。
論文 参考訳(メタデータ) (2022-01-14T11:35:18Z) - On the Interplay Between Sparsity, Naturalness, Intelligibility, and
Prosody in Speech Synthesis [102.80458458550999]
スパーティイとその後の合成音声に対する効果のトレードオフについて検討する。
以上の結果から, 終末TTSモデルに限らず, プルーニングされたTTSモデルでも, 自然性や知性に富んだ合成音声を生成できることが示唆された。
論文 参考訳(メタデータ) (2021-10-04T02:03:28Z) - Alternated Training with Synthetic and Authentic Data for Neural Machine
Translation [49.35605028467887]
ニューラルマシン翻訳(NMT)のための合成および認証データを用いた交互トレーニングを提案する。
従来の研究と比較して,ノイズの多い合成データによってNMTモデルのトレーニングが妨げられるのを防止するためのガイダンスとして,認証データを導入している。
中国語・ドイツ語・英語の翻訳タスクの実験は、我々のアプローチがいくつかの強いベースラインにまたがって性能を向上させることを示している。
論文 参考訳(メタデータ) (2021-06-16T07:13:16Z) - Text Mining to Identify and Extract Novel Disease Treatments From
Unstructured Datasets [56.38623317907416]
Google Cloudを使って、NPRラジオ番組のポッドキャストのエピソードを書き起こします。
次に、テキストを体系的に前処理するためのパイプラインを構築します。
我々のモデルは、Omeprazoleが心臓熱傷の治療に役立てることに成功しました。
論文 参考訳(メタデータ) (2020-10-22T19:52:49Z) - Image Translation for Medical Image Generation -- Ischemic Stroke
Lesions [0.0]
注釈付き病理を持つ合成データベースは、必要なトレーニングデータを提供することができる。
画像から画像への変換モデルを訓練し、脳卒中病変を伴わない脳の容積の磁気共鳴像を合成する。
臨床例は10例, 50例に過ぎなかったが, 総合的なデータ拡張は有意な改善をもたらすことが示唆された。
論文 参考訳(メタデータ) (2020-10-05T09:12:28Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。