論文の概要: AI-powered Language Assessment Tools for Dementia
- arxiv url: http://arxiv.org/abs/2209.12652v1
- Date: Tue, 13 Sep 2022 16:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 23:40:35.456964
- Title: AI-powered Language Assessment Tools for Dementia
- Title(参考訳): 認知症のためのAIによる言語評価ツール
- Authors: Mahboobeh Parsapoor, Muhammad Raisul Alam, Alex Mihailidis
- Abstract要約: 本稿では,AIを活用した言語評価(Language Assessment, LA)ツールの開発手法を提案する。
このようなツールは、高齢者の認知症に関連する言語障害を評価するのに使うことができる。
機械学習(ML)分類器は,提案手法の主要な部分である。
- 参考スコア(独自算出の注目度): 2.0722620478378246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The main objective of this paper is to propose an approach for developing an
Artificial Intelligence (AI)-powered Language Assessment (LA) tool. Such tools
can be used to assess language impairments associated with dementia in older
adults. The Machine Learning (ML) classifiers are the main parts of our
proposed approach, therefore to develop an accurate tool with high sensitivity
and specificity, we consider different binary classifiers and evaluate their
performances. We also assess the reliability and validity of our approach by
comparing the impact of different types of language tasks, features, and
recording media on the performance of ML classifiers.
- Abstract(参考訳): 本研究の目的は,AIを活用した言語アセスメント(Language Assessment, LA)ツールを開発するためのアプローチを提案することである。
このようなツールは高齢者の認知症に関連する言語障害を評価するのに使うことができる。
機械学習(ML)分類器は,提案手法の主要な部分であり,高い感度と特異性を持つ正確なツールを開発するために,異なるバイナリ分類器を検討し,その性能を評価する。
また,ML分類器の性能に及ぼす各種言語タスク,特徴,記録媒体の影響を比較することで,アプローチの信頼性と妥当性を評価する。
関連論文リスト
- CLAIR-A: Leveraging Large Language Models to Judge Audio Captions [73.51087998971418]
機械生成オーディオキャプションの評価は、様々な要因を検討する必要がある複雑なタスクである。
本稿では,大規模言語モデルのゼロショット機能を活用するシンプルで柔軟なCLAIR-Aを提案する。
我々の評価では、CLAIR-Aは従来のメトリクスと比較して品質の人的判断を良く予測する。
論文 参考訳(メタデータ) (2024-09-19T17:59:52Z) - ARTICLE: Annotator Reliability Through In-Context Learning [18.818071256242327]
自己整合性を通じてアノテーションの品質を推定する,コンテキスト内学習フレームワークであるtexttARTICLEを提案する。
この結果から,TexttARTICLEは信頼性の高いアノテータを識別する堅牢な手法として利用でき,データ品質が向上することが示唆された。
論文 参考訳(メタデータ) (2024-09-18T17:59:32Z) - Selective Forgetting: Advancing Machine Unlearning Techniques and
Evaluation in Language Models [24.784439330058095]
本研究では,個人や機密データを不注意に保持するニューラルモデルに関する懸念について検討する。
言語モデル内で、正確かつ選択的に忘れることを実現するために、新しいアプローチが導入された。
S-EL(Sensitive Information extract Likelihood)とS-MA(Sensitive Information Memory Accuracy)の2つの革新的な評価指標が提案されている。
論文 参考訳(メタデータ) (2024-02-08T16:50:01Z) - Lost in the Source Language: How Large Language Models Evaluate the Quality of Machine Translation [64.5862977630713]
本研究では,機械翻訳評価タスクにおいて,Large Language Models (LLM) がソースデータと参照データをどのように活用するかを検討する。
参照情報が評価精度を大幅に向上させるのに対して,意外なことに,ソース情報は時として非生産的である。
論文 参考訳(メタデータ) (2024-01-12T13:23:21Z) - DIALIGHT: Lightweight Multilingual Development and Evaluation of
Task-Oriented Dialogue Systems with Large Language Models [76.79929883963275]
DIALIGHTは多言語タスク指向対話(ToD)システムの開発と評価のためのツールキットである。
ローカル発話レベルとグローバル対話レベルの両方において、人間のきめ細かい評価のためのセキュアでユーザフレンドリーなWebインターフェースを備えている。
評価の結果, PLMの微調整により精度とコヒーレンスが向上する一方, LLMベースのシステムは多様で類似した応答を生成するのに優れていた。
論文 参考訳(メタデータ) (2024-01-04T11:27:48Z) - FLASK: Fine-grained Language Model Evaluation based on Alignment Skill Sets [69.91340332545094]
FLASKは、人間に基づく評価とモデルに基づく評価の両方のためのきめ細かい評価プロトコルである。
モデル性能の全体像を得るためには,評価の微粒化が重要であることを実験的に観察する。
論文 参考訳(メタデータ) (2023-07-20T14:56:35Z) - Leveraging Pretrained Representations with Task-related Keywords for
Alzheimer's Disease Detection [69.53626024091076]
アルツハイマー病(AD)は高齢者に特に顕著である。
事前学習モデルの最近の進歩は、AD検出モデリングを低レベル特徴から高レベル表現にシフトさせる動機付けとなっている。
本稿では,高レベルの音響・言語的特徴から,より優れたAD関連手がかりを抽出する,いくつかの効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-14T16:03:28Z) - ELEVATER: A Benchmark and Toolkit for Evaluating Language-Augmented
Visual Models [102.63817106363597]
ELEVATERは、事前訓練された言語拡張ビジュアルモデルの比較と評価を行う最初のベンチマークである。
20の画像分類データセットと35のオブジェクト検出データセットで構成され、それぞれが外部知識で拡張されている。
研究コミュニティ向けのツールキットと評価プラットフォームをリリースします。
論文 参考訳(メタデータ) (2022-04-19T10:23:42Z) - Systematic Review for AI-based Language Learning Tools [0.0]
このレビューは、2017年から2020年にかけて開発されたAIツールに関する情報を合成した。
これらのツールの大部分は、機械学習と自然言語処理を利用している。
これらのツールを使用した後、学習者は言語能力と知識の向上を実演した。
論文 参考訳(メタデータ) (2021-10-29T11:54:51Z) - Beyond the Tip of the Iceberg: Assessing Coherence of Text Classifiers [0.05857406612420462]
大規模で事前訓練された言語モデルは、既存の言語理解タスクにおいて人間のレベルと超人的精度を達成する。
予測コヒーレンスの新しい尺度による評価システムを提案する。
論文 参考訳(メタデータ) (2021-09-10T15:04:23Z) - Sentence Level Human Translation Quality Estimation with Attention-based
Neural Networks [0.30458514384586394]
本稿では,人間の翻訳品質の自動推定にDeep Learning法を用いる方法について検討する。
大規模な人間の注釈付きデータセットの実証結果は、ニューラルモデルが特徴に基づく手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-03-13T16:57:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。