論文の概要: Bayesian Distributional Models of Executive Functioning
- arxiv url: http://arxiv.org/abs/2510.00387v1
- Date: Wed, 01 Oct 2025 00:59:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.316207
- Title: Bayesian Distributional Models of Executive Functioning
- Title(参考訳): 実行関数のベイズ分布モデル
- Authors: Robert Kasumba, Zeyu Lu, Dom CP Marticorena, Mingyang Zhong, Paul Beggs, Anja Pahor, Geetha Ramani, Imani Goffney, Susanne M Jaeggi, Aaron R Seitz, Jacob R Gardner, Dennis L Barbour,
- Abstract要約: DLVMは、特に少ないデータ量でIMLEを一貫して上回り、真の分布の高精度な推定よりも高速に収束する。
DALEは、情報ゲイン、ランダムサンプリング、固定テストバッテリを最大化するために、適応的にサンプリングを誘導する。
- 参考スコア(独自算出の注目度): 14.526123380149924
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Estimation (IMLE). DLVM integrates observations across multiple executive function tasks and individuals, allowing parameter estimation even under sparse or incomplete data conditions. DLVM consistently outperformed IMLE, especially under with smaller amounts of data, and converges faster to highly accurate estimates of the true distributions. In a second set of analyses, DALE adaptively guided sampling to maximize information gain, outperforming random sampling and fixed test batteries, particularly within the first 80 trials. These findings establish the advantages of combining DLVMs cross-task inference with DALEs optimal adaptive sampling, providing a principled basis for more efficient cognitive assessments.
- Abstract(参考訳): 推定値(IMLE)。
DLVMは複数のエグゼクティブ関数タスクと個人にわたる観察を統合し、スパースや不完全なデータ条件の下でもパラメータ推定を可能にする。
DLVMは、特に少ないデータ量でIMLEを一貫して上回り、真の分布の高精度な推定よりも高速に収束する。
第2の分析では、DALEは、特に最初の80回の試験において、情報ゲインを最大化し、ランダムサンプリングおよび固定テストバッテリの性能を向上させるために、サンプリングを適応的にガイドした。
これらの結果から,DLVMとDALEの最適適応サンプリングを組み合わせることで,より効率的な認知評価のための基本となる利点が得られた。
関連論文リスト
- SCOPED: Score-Curvature Out-of-distribution Proximity Evaluator for Diffusion [5.008779702997125]
アウト・オブ・ディストリビューション(OOD)検出は、視覚、ロボット工学、強化学習などにおける機械学習システムの信頼性の高い展開に不可欠である。
SCOPED(Score-Curvature Out-of-distribution Proximity Evaluator for Diffusion)を紹介する。
SCOPEDは、多様なデータセットでトレーニングされた単一の拡散モデルから計算され、モデルのスコア関数のジャコビアントレースと2乗ノルムを単一のテスト統計量に結合する。
4つのビジョンベンチマークでは、SCOPEDは計算コストの低いにもかかわらず、競合または最先端の精度リコールスコアを達成している。
論文 参考訳(メタデータ) (2025-10-01T20:54:49Z) - Multi-modal Bayesian Neural Network Surrogates with Conjugate Last-Layer Estimation [0.30586855806896046]
我々は、2つのマルチモーダルニューラルネットワークサロゲートモデルを開発し、最終層における条件共役分布を利用してモデルパラメータを推定する。
我々は,スカラーデータと時系列データの両方に対する一様サロゲートモデルと比較して,予測精度と不確実性が改善されたことを示す。
論文 参考訳(メタデータ) (2025-09-26T00:13:57Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Precise Model Benchmarking with Only a Few Observations [6.092112060364272]
本稿では,各サブグループの直接推定と回帰推定を個別にバランスする経験的ベイズ推定器を提案する。
EBは、直接的および回帰的アプローチと比較して、LCM性能のより正確な推定を一貫して提供する。
論文 参考訳(メタデータ) (2024-10-07T17:26:31Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - DiffPuter: Empowering Diffusion Models for Missing Data Imputation [56.48119008663155]
本稿ではDiffPuterについて紹介する。DiffPuterは、データ計算の欠如に対する期待最大化(EM)アルゴリズムと組み合わせた、カスタマイズされた拡散モデルである。
我々の理論的解析は、DiffPuterのトレーニングステップがデータ密度の最大推定値に対応することを示している。
DiffPuterは,最も競争力のある既存手法と比較して,MAEが6.94%,RMSEが4.78%向上した。
論文 参考訳(メタデータ) (2024-05-31T08:35:56Z) - How to Train Data-Efficient LLMs [56.41105687693619]
事前学習言語モデル(LLM)に対するデータ効率のアプローチについて検討する。
Ask-LLMと密度サンプリングがそれぞれのカテゴリで最適であることがわかった。
何百もの評価タスクと事前学習作業を含む19個のサンプルを比較したところ,Ask-LLMと密度がそれぞれのカテゴリで最適な方法であることが判明した。
論文 参考訳(メタデータ) (2024-02-15T02:27:57Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Probability Distribution of Hypervolume Improvement in Bi-objective Bayesian Optimization [5.586361810914231]
ハイパーボリューム改善(HVI)は、多目的ベイズ最適化アルゴリズムで一般的に用いられる。
両目的問題に対するHVIの確率分布の正確な表現を提供する。
本稿では,新たな取得関数である$varepsilon$-PoHVIを提案する。
論文 参考訳(メタデータ) (2022-05-11T13:59:35Z) - Listen, Adapt, Better WER: Source-free Single-utterance Test-time
Adaptation for Automatic Speech Recognition [65.84978547406753]
Test-time Adaptationは、ソースドメインでトレーニングされたモデルに適応して、テストサンプルの予測を改善することを目的としている。
単一発話テスト時間適応 (SUTA) は音声領域における最初のTTA研究である。
論文 参考訳(メタデータ) (2022-03-27T06:38:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。