論文の概要: Statistical Validation in Cultural Adaptations of Cognitive Tests: A Multi- Regional Systematic Review
- arxiv url: http://arxiv.org/abs/2504.13495v1
- Date: Fri, 18 Apr 2025 06:25:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 18:57:15.072605
- Title: Statistical Validation in Cultural Adaptations of Cognitive Tests: A Multi- Regional Systematic Review
- Title(参考訳): 認知テストの文化的適応における統計的検証:多地域システムレビュー
- Authors: Miit Daga, Priyasha Mohanty, Ram Krishna, Swarna Priya RM,
- Abstract要約: 本総説では,ヨーロッパ,アジア,アフリカ,南米における文化適応の方法論に関する6つの専門的研究について考察する。
その結果、適切な適応には、人口統計学的変化を伴う全体論的モデルが必要であることが示唆された。
このレビューは、より多様なグローバルな健康環境における認知評価のさらなる適応のためのエビデンスベースのフレームワークを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This systematic review discusses the methodological approaches and statistical confirmations of cross-cultural adaptations of cognitive evaluation tools used with different populations. The review considers six seminal studies on the methodology of cultural adaptation in Europe, Asia, Africa, and South America. The results indicate that proper adaptations need holistic models with demographic changes, and education explained as much as 26.76% of the variance in MoCA-H scores. Cultural-linguistic factors explained 6.89% of the variance in European adaptations of MoCA-H; however, another study on adapted MMSE and BCSB among Brazilian Indigenous populations reported excellent diagnostic performance, with a sensitivity of 94.4% and specificity of 99.2%. There was 78.5% inter-rater agreement on the evaluation of cultural adaptation using the Manchester Translation Evaluation Checklist. A paramount message of the paper is that community feedback is necessary for culturally appropriate preparation, standardized translation protocols also must be included, along with robust statistical validation methodologies for developing cognitive assessment instruments. This review supplies evidence-based frameworks for the further adaptation of cognitive assessments in increasingly diverse global health settings.
- Abstract(参考訳): 本稿では,異なる集団で使用される認知評価ツールの異文化間適応の方法論的アプローチと統計的検証について論じる。
本総説では,ヨーロッパ,アジア,アフリカ,南米における文化適応の方法論に関する6つの専門的研究について考察する。
その結果、適切な適応には人口変動を伴う全体モデルが必要であることが示され、教育はMoCA-Hスコアの26.76%まで説明されている。
文化言語学的要因は、ヨーロッパのMoCA-Hの多様性の6.89%を説明できるが、ブラジル先住民のMMSEとBCSBの適応に関する別の研究では、94.4%の感度と99.2%の特異性を持つ優れた診断性能が報告された。
マンチェスター翻訳評価チェックリストによる文化適応の評価については78.5%の合意があった。
本論文の主旨は、文化的に適切な準備のためにコミュニティのフィードバックが必要であること、標準化された翻訳プロトコルも含まなければならないこと、そして認知評価機器を開発するための堅牢な統計的検証手法を含めることである。
このレビューは、より多様なグローバルな健康環境における認知評価のさらなる適応のためのエビデンスベースのフレームワークを提供する。
関連論文リスト
- Randomness, Not Representation: The Unreliability of Evaluating Cultural Alignment in LLMs [7.802103248428407]
我々は,現在の調査に基づく評価手法の背景にある3つの仮定を特定し,検証する。
提示形式間の不安定性,評価された文化次元と保持された文化的次元間の不整合性,即時操舵時の不整合性などについて検討した。
論文 参考訳(メタデータ) (2025-03-11T17:59:53Z) - Global MMLU: Understanding and Addressing Cultural and Linguistic Biases in Multilingual Evaluation [71.59208664920452]
多言語データセットの文化的バイアスは、グローバルベンチマークとしての有効性に重大な課題をもたらす。
MMLUの進歩は西洋中心の概念の学習に大きく依存しており、文化に敏感な知識を必要とする質問の28%がそうである。
改良されたMMLUであるGlobal MMLUをリリースし,42言語を対象に評価を行った。
論文 参考訳(メタデータ) (2024-12-04T13:27:09Z) - Machine Learning Approaches for Mental Illness Detection on Social Media: A Systematic Review of Biases and Methodological Challenges [0.037693031068634524]
本稿では,ソーシャルメディアデータを用いた精神疾患検出のための機械学習モデルについて検討する。
機械学習ライフサイクル全体で発生するバイアスと方法論上の課題を強調します。
これらの課題を克服することで、将来の研究はソーシャルメディア上での抑うつ検出のためのより堅牢で一般化可能なMLモデルを開発することができる。
論文 参考訳(メタデータ) (2024-10-21T17:05:50Z) - Phrasing for UX: Enhancing Information Engagement through Computational Linguistics and Creative Analytics [0.0]
本研究では,デジタルプラットフォーム上でのテキスト特徴と情報エンゲージメント(IE)の関係について検討する。
計算言語学と分析がユーザインタラクションに与える影響を強調します。
READモデルは、代表性、使いやすさ、影響、分散といった重要な予測要素を定量化するために導入された。
論文 参考訳(メタデータ) (2024-08-23T00:33:47Z) - ConSiDERS-The-Human Evaluation Framework: Rethinking Human Evaluation for Generative Large Language Models [53.00812898384698]
生成型大規模言語モデル(LLM)の人間による評価は多分野にわたる作業であるべきだと論じる。
認知バイアスが、流動的な情報や真理をいかに説明するか、そして、認識の不確実性が、Likertのような評価スコアの信頼性にどのように影響するかを強調します。
本稿では,ConSiDERS-The-Human評価フレームワークを提案する。一貫性,スコーリング基準,差別化,ユーザエクスペリエンス,責任,スケーラビリティの6つの柱からなる。
論文 参考訳(メタデータ) (2024-05-28T22:45:28Z) - Using Pre-training and Interaction Modeling for ancestry-specific disease prediction in UK Biobank [69.90493129893112]
近年のゲノムワイド・アソシエーション(GWAS)研究は、複雑な形質の遺伝的基盤を明らかにしているが、非ヨーロッパ系個体の低発現を示している。
そこで本研究では,マルチオミクスデータを用いて,多様な祖先間での疾患予測を改善することができるかを評価する。
論文 参考訳(メタデータ) (2024-04-26T16:39:50Z) - Evaluation of really good grammatical error correction [0.0]
文法的誤り訂正(GEC)は、異なる目的を持つ様々なモデルを含んでいる。
従来の評価手法では、システム機能や目的を完全に把握できない。
論文 参考訳(メタデータ) (2023-08-17T13:45:35Z) - A Covariate-Adjusted Homogeneity Test with Application to Facial
Recognition Accuracy Assessment [0.3222802562733786]
通常のスコアは、医療画像研究やブラックボックス法医学研究で一般的に見られる。
本研究は, 5つのグループ間で統計的に有意な差異を同定するために, 顔認識実験に適用した。
論文 参考訳(メタデータ) (2023-07-17T21:16:26Z) - From Static Benchmarks to Adaptive Testing: Psychometrics in AI Evaluation [60.14902811624433]
本稿では,静的評価手法から適応テストへのパラダイムシフトについて論じる。
これには、ベンチマークで各テスト項目の特性と価値を推定し、リアルタイムでアイテムを動的に調整することが含まれる。
我々は、AI評価にサイコメトリックを採用する現在のアプローチ、アドバンテージ、そして根底にある理由を分析します。
論文 参考訳(メタデータ) (2023-06-18T09:54:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Unsupervised neural adaptation model based on optimal transport for
spoken language identification [54.96267179988487]
トレーニングセットとテストセット間の音響音声の統計的分布のミスマッチにより,音声言語識別(SLID)の性能が大幅に低下する可能性がある。
SLIDの分布ミスマッチ問題に対処するために,教師なしニューラル適応モデルを提案する。
論文 参考訳(メタデータ) (2020-12-24T07:37:19Z) - TARA: Training and Representation Alteration for AI Fairness and Domain
Generalization [6.6147550436077776]
この方法は、AIバイアスの顕著な原因の軽減のためにトレーニングおよび表現変換(TARA)を実行するデュアル戦略を使用します。
画像解析の手法をテストすると、実験により、TARAがベースラインモデルを著しく、あるいは完全に破壊することを示した。
偏り評価に使用される現在の測定基準の一定の限界を認識し, 新たな整合性偏り測定基準を提案する。
論文 参考訳(メタデータ) (2020-12-11T14:39:10Z) - Interpretable Off-Policy Evaluation in Reinforcement Learning by
Highlighting Influential Transitions [48.91284724066349]
強化学習におけるオフ政治評価は、医療や教育などの領域における将来の成果を改善するために観察データを使用する機会を提供する。
信頼区間のような従来の尺度は、ノイズ、限られたデータ、不確実性のために不十分である可能性がある。
我々は,人間専門家が政策評価評価評価の妥当性を分析できるように,ハイブリッドAIシステムとして機能する手法を開発した。
論文 参考訳(メタデータ) (2020-02-10T00:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。