論文の概要: Distributional Latent Variable Models with an Application in Active
Cognitive Testing
- arxiv url: http://arxiv.org/abs/2312.09316v1
- Date: Thu, 14 Dec 2023 19:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 18:00:15.561229
- Title: Distributional Latent Variable Models with an Application in Active
Cognitive Testing
- Title(参考訳): 分布型潜在変数モデルと能動認知テストへの応用
- Authors: Robert Kasumba, Dom CP Marticorena, Anja Pahor, Geetha Ramani, Imani
Goffney, Susanne M Jaeggi, Aaron Seitz, Jacob R Gardner, Dennis L Barbour
- Abstract要約: 認知モデリングは一般的に、注意力や作業記憶、その他の潜伏変数を推定するために、様々なテストのバッテリーを完了するよう参加者に求めることに依存する。
ほぼユビキタスなアプローチは、各被験者に与えられた各テストの結果にまたがる分布をもたらす、各テストに対する多くの観察を繰り返すことである。
潜在変数モデルを拡張して、多くの相関変数を同時に学習できるようにします。
- 参考スコア(独自算出の注目度): 6.415253742118173
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cognitive modeling commonly relies on asking participants to complete a
battery of varied tests in order to estimate attention, working memory, and
other latent variables. In many cases, these tests result in highly variable
observation models. A near-ubiquitous approach is to repeat many observations
for each test, resulting in a distribution over the outcomes from each test
given to each subject. In this paper, we explore the usage of latent variable
modeling to enable learning across many correlated variables simultaneously. We
extend latent variable models (LVMs) to the setting where observed data for
each subject are a series of observations from many different distributions,
rather than simple vectors to be reconstructed. By embedding test battery
results for individuals in a latent space that is trained jointly across a
population, we are able to leverage correlations both between tests for a
single participant and between multiple participants. We then propose an active
learning framework that leverages this model to conduct more efficient
cognitive test batteries. We validate our approach by demonstrating with
real-time data acquisition that it performs comparably to conventional methods
in making item-level predictions with fewer test items.
- Abstract(参考訳): 認知モデリングは一般的に、注意力や作業記憶、その他の潜伏変数を推定するために、様々なテストのバッテリーを完了するよう参加者に求めることに依存する。
多くの場合、これらのテストは高度に変動する観測モデルをもたらす。
ほぼユビキタスなアプローチは、各被験者に与えられた各テストの結果にまたがる分布をもたらす、各テストに対する多くの観察を繰り返すことである。
本稿では,複数の相関変数を同時に学習するための潜在変数モデリングの利用について検討する。
各被験者の観測データが再構成される単純なベクトルではなく、多くの異なる分布からの一連の観測であるような設定に潜時変数モデル(LVM)を拡張します。
集団間で共同でトレーニングされた潜在空間に個人のテストバッテリ結果を埋め込むことで,1人の参加者に対するテストと複数の参加者間の相関を活用できる。
次に、このモデルを利用してより効率的な認知テストバッテリを動作させる能動的学習フレームワークを提案する。
テスト項目の少ない項目レベルの予測を行う上で,従来の手法と同等に動作することを示すことによって,我々のアプローチを検証する。
関連論文リスト
- Dual Prototype Evolving for Test-Time Generalization of Vision-Language Models [11.545127156146368]
本稿では,事前学習型視覚言語モデル(VLM)のための新しいテスト時間適応手法であるDual Prototype Evolving (DPE)を紹介する。
テスト期間中にターゲットクラスに対するより正確なマルチモーダル表現を段階的にキャプチャするために、テキストとビジュアルの2つのプロトタイプを作成し、進化させます。
提案したDPEは,従来の最先端手法を一貫して上回りながら,競争力のある計算効率を示す。
論文 参考訳(メタデータ) (2024-10-16T17:59:49Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - Multi-modal Gaussian Process Variational Autoencoders for Neural and
Behavioral Data [0.9622208190558754]
そこで本研究では,時間的に進化する共振子と独立潜光子を個別に同時記録した実験モードのために抽出する非教師付き潜光子変数モデルを提案する。
我々は,ポアソンスパイク数と時間とともにスムーズかつスムーズに回転するMNIST画像からなるシミュレーションマルチモーダルデータに対して,本モデルの有効性を検証した。
マルチモーダルGP-VAEは、モダリティ間の共有および独立の潜伏構造を正確に識別できるだけでなく、保留試験において画像とニューラルレートの両方を適切に再構成できることを示す。
論文 参考訳(メタデータ) (2023-10-04T19:04:55Z) - Leveraging Diffusion Disentangled Representations to Mitigate Shortcuts
in Underspecified Visual Tasks [92.32670915472099]
拡散確率モデル(DPM)を用いた合成カウンターファクトの生成を利用したアンサンブルの多様化フレームワークを提案する。
拡散誘導型分散化は,データ収集を必要とする従来の手法に匹敵するアンサンブル多様性を達成し,ショートカットからの注意を回避できることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:37:52Z) - Even Small Correlation and Diversity Shifts Pose Dataset-Bias Issues [19.4921353136871]
実験サンプルがトレーニング中に見つからないパターンを示す場合の多様性シフトと、テストデータが観察された不変性と急激な特徴の異なる相関を示す場合の相関シフトの2種類について検討した。
そこで我々は,両タイプのシフトをデータセットを用いて分析し,制御可能な方法で共存する統合プロトコルを提案する。
論文 参考訳(メタデータ) (2023-05-09T23:40:23Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Towards Robust Visual Question Answering: Making the Most of Biased
Samples via Contrastive Learning [54.61762276179205]
我々は,ビザドサンプルを最大限に活用することで,ロバストなVQAモデルを構築するための新しいコントラスト学習手法 MMBS を提案する。
具体的には、元のトレーニングサンプルからスプリアス相関に関連する情報を排除し、比較学習のための正のサンプルを構築する。
我々は,OODデータセットのVQA-CP v2において,IDデータセットのVQA v2上での堅牢なパフォーマンスを維持しながら,競争性能を達成することで,コントリビューションを検証した。
論文 参考訳(メタデータ) (2022-10-10T11:05:21Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Learning to Generalize across Domains on Single Test Samples [126.9447368941314]
単体テストサンプルでドメインをまたいで一般化することを学ぶ。
変分ベイズ推論問題として単検体への適応を定式化する。
我々のモデルは、ドメインの一般化のための複数のベンチマークにおいて、最先端のメソッドよりも少なくとも同等で、より優れたパフォーマンスを達成します。
論文 参考訳(メタデータ) (2022-02-16T13:21:04Z) - Testing Directed Acyclic Graph via Structural, Supervised and Generative
Adversarial Learning [7.623002328386318]
有向非巡回グラフ(DAG)の新しい仮説テスト法を提案する。
非常に柔軟なニューラルネットワーク学習者に基づいてテストを構築します。
シミュレーションと脳接続ネットワーク解析による実験の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-02T21:18:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。