論文の概要: Unified Uncertainty Estimation for Cognitive Diagnosis Models
- arxiv url: http://arxiv.org/abs/2403.14676v1
- Date: Sat, 9 Mar 2024 13:48:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 03:33:23.305499
- Title: Unified Uncertainty Estimation for Cognitive Diagnosis Models
- Title(参考訳): 認知診断モデルの統一的不確かさ推定
- Authors: Fei Wang, Qi Liu, Enhong Chen, Chuanren Liu, Zhenya Huang, Jinze Wu, Shijin Wang,
- Abstract要約: 本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
- 参考スコア(独自算出の注目度): 70.46998436898205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cognitive diagnosis models have been widely used in different areas, especially intelligent education, to measure users' proficiency levels on knowledge concepts, based on which users can get personalized instructions. As the measurement is not always reliable due to the weak links of the models and data, the uncertainty of measurement also offers important information for decisions. However, the research on the uncertainty estimation lags behind that on advanced model structures for cognitive diagnosis. Existing approaches have limited efficiency and leave an academic blank for sophisticated models which have interaction function parameters (e.g., deep learning-based models). To address these problems, we propose a unified uncertainty estimation approach for a wide range of cognitive diagnosis models. Specifically, based on the idea of estimating the posterior distributions of cognitive diagnosis model parameters, we first provide a unified objective function for mini-batch based optimization that can be more efficiently applied to a wide range of models and large datasets. Then, we modify the reparameterization approach in order to adapt to parameters defined on different domains. Furthermore, we decompose the uncertainty of diagnostic parameters into data aspect and model aspect, which better explains the source of uncertainty. Extensive experiments demonstrate that our method is effective and can provide useful insights into the uncertainty of cognitive diagnosis.
- Abstract(参考訳): 認知診断モデルは、特に知的教育において、ユーザがパーソナライズされた指示を得られることに基づいて、知識概念におけるユーザの習熟度を測定するために広く使われている。
モデルとデータの弱いリンクのため、測定が常に信頼できるとは限らないため、測定の不確実性も決定に重要な情報を提供する。
しかし、その背景にある不確実性推定ラグに関する研究は、認知診断のための高度なモデル構造に関するものである。
既存のアプローチは効率が限られており、相互作用関数パラメータ(例えばディープラーニングベースのモデル)を持つ洗練されたモデルには学術的な空白を残している。
これらの問題に対処するために,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
具体的には、認知診断モデルパラメータの後方分布を推定するアイデアに基づいて、まず、広範囲のモデルや大規模なデータセットにより効率的に適用可能な、ミニバッチに基づく最適化のための統一目的関数を提供する。
そして、異なる領域で定義されたパラメータに適応するために、再パラメータ化アプローチを変更する。
さらに、診断パラメータの不確かさをデータ的側面とモデル的側面に分解し、不確実性の原因を説明する。
広範囲にわたる実験により,本手法は有効であり,認知診断の不確実性に関する有用な知見が得られることが示された。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - A Survey of Models for Cognitive Diagnosis: New Developments and Future Directions [66.40362209055023]
本研究の目的は,認知診断の現在のモデルについて,機械学習を用いた新たな展開に注目した調査を行うことである。
モデル構造,パラメータ推定アルゴリズム,モデル評価方法,適用例を比較して,認知診断モデルの最近の傾向を概観する。
論文 参考訳(メタデータ) (2024-07-07T18:02:00Z) - Decoding Decision Reasoning: A Counterfactual-Powered Model for Knowledge Discovery [6.1521675665532545]
医用画像では、AIモデルの予測の背後にある根拠を明らかにすることが、信頼性を評価する上で重要である。
本稿では,意思決定推論と特徴識別機能を備えた説明可能なモデルを提案する。
提案手法を実装することにより,データ駆動モデルにより活用されるクラス固有の特徴を効果的に識別および可視化することができる。
論文 参考訳(メタデータ) (2024-05-23T19:00:38Z) - Benchmarking Scalable Epistemic Uncertainty Quantification in Organ
Segmentation [7.313010190714819]
モデル予測に関連する不確実性の定量化は 重要な臨床応用に不可欠です
自動臓器分割のためのディープラーニングに基づく手法は,診断と治療計画を支援する上で有望であることを示す。
医用画像解析設定においてどの方法が好ましいかは不明確である。
論文 参考訳(メタデータ) (2023-08-15T00:09:33Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Topological Interpretability for Deep-Learning [0.30806551485143496]
ディープラーニング(DL)モデルは、予測の確実性を定量化できない。
本研究は,臨床および非臨床のテキストに基づいて訓練された2つのDL分類モデルにおいて,特徴を推測する手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T13:38:13Z) - A Meta-heuristic Approach to Estimate and Explain Classifier Uncertainty [0.4264192013842096]
本研究は,人間と機械学習の双方の意思決定に相互に関係する因子の観点から,インスタンスの複雑性を特徴付けるクラス非依存型メタヒューリスティックスを提案する。
提案された測度とフレームワークは、より複雑なインスタンスのモデル開発を改善するとともに、モデルの棄却と説明の新しい手段を提供するという約束を持っている。
論文 参考訳(メタデータ) (2023-04-20T13:09:28Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - NeuralSympCheck: A Symptom Checking and Disease Diagnostic Neural Model
with Logic Regularization [59.15047491202254]
症状検査システムは、患者に症状を問い合わせ、迅速で手頃な価格の医療評価を行う。
本稿では,論理正則化を用いたニューラルネットワークの教師付き学習に基づく新しい手法を提案する。
以上の結果から,本手法は診断回数や症状が大きい場合の診断精度において,最も優れた方法であることがわかった。
論文 参考訳(メタデータ) (2022-06-02T07:57:17Z) - Uncertainty aware and explainable diagnosis of retinal disease [0.0]
4つの網膜疾患の診断のための深層学習モデルの不確実性解析を行う。
不確実性が認識されている間にシステムが予測に使用する特徴は、システムが決定について確信が持たないときにハイライトする能力である。
論文 参考訳(メタデータ) (2021-01-26T23:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。