論文の概要: Bayesian Distributional Models of Executive Functioning
- arxiv url: http://arxiv.org/abs/2510.00387v2
- Date: Tue, 07 Oct 2025 20:12:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 12:02:36.777793
- Title: Bayesian Distributional Models of Executive Functioning
- Title(参考訳): 実行関数のベイズ分布モデル
- Authors: Robert Kasumba, Zeyu Lu, Dom CP Marticorena, Mingyang Zhong, Paul Beggs, Anja Pahor, Geetha Ramani, Imani Goffney, Susanne M Jaeggi, Aaron R Seitz, Jacob R Gardner, Dennis L Barbour,
- Abstract要約: 本研究は、既往の独立最大値推定(IMLE)と比較して、分布遅延変数モデル(DLVM)とベイズ分布アクティブリーニング(DALE)がどのように機能するかを評価するために、既知の地絡パラメータを用いた制御シミュレーションを用いる。
DLVMは、特に少ないデータ量でIMLEを一貫して上回り、真の分布の高精度な推定よりも高速に収束する。
DALEは、特に最初の80回の試験において、情報収集、ランダムサンプリング、固定テストバッテリの最大化のために、適応的にサンプリングを誘導した。
- 参考スコア(独自算出の注目度): 14.526123380149924
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study uses controlled simulations with known ground-truth parameters to evaluate how Distributional Latent Variable Models (DLVM) and Bayesian Distributional Active LEarning (DALE) perform in comparison to conventional Independent Maximum Likelihood Estimation (IMLE). DLVM integrates observations across multiple executive function tasks and individuals, allowing parameter estimation even under sparse or incomplete data conditions. DLVM consistently outperformed IMLE, especially under with smaller amounts of data, and converges faster to highly accurate estimates of the true distributions. In a second set of analyses, DALE adaptively guided sampling to maximize information gain, outperforming random sampling and fixed test batteries, particularly within the first 80 trials. These findings establish the advantages of combining DLVM's cross-task inference with DALE's optimal adaptive sampling, providing a principled basis for more efficient cognitive assessments.
- Abstract(参考訳): 本研究は,従来の独立最大値推定(IMLE)と比較して,分布遅延変数モデル (DLVM) とベイズ分布アクティブリーニング (DALE) がどのように機能するかを評価するために,既知の地絡パラメータを用いた制御シミュレーションを用いた。
DLVMは複数のエグゼクティブ関数タスクと個人にわたる観察を統合し、スパースや不完全なデータ条件の下でもパラメータ推定を可能にする。
DLVMは、特に少ないデータ量でIMLEを一貫して上回り、真の分布の高精度な推定よりも高速に収束する。
第2の分析では、DALEは、特に最初の80回の試験において、情報ゲインを最大化し、ランダムサンプリングおよび固定テストバッテリの性能を向上させるために、サンプリングを適応的にガイドした。
これらの知見は、DLVMのクロスタスク推論とDALEの最適適応サンプリングを組み合わせる利点を確立し、より効率的な認知評価の基礎となる。
関連論文リスト
- Flow-Based Density Ratio Estimation for Intractable Distributions with Applications in Genomics [80.05951561886123]
我々は条件認識フローマッチングを利用して、生成軌道に沿った密度比を追跡するための1つの動的定式化を導出する。
クローズドフォーム比推定のためのシミュレーションベンチマーク上での競合性能を実証し,本手法が単一セルゲノミクスデータ解析における多目的タスクをサポートすることを示す。
論文 参考訳(メタデータ) (2026-02-27T17:27:55Z) - Training-Free Distribution Adaptation for Diffusion Models via Maximum Mean Discrepancy Guidance [17.353524034156205]
MMD Guidanceは、生成したサンプルと参照データセットの間の最大平均離散度(MMD)の勾配で逆拡散プロセスを強化する。
当社のフレームワークは,製品カーネルによる条件付き生成モデルにおけるアクシデント対応に自然に拡張する。
合成および実世界のベンチマーク実験により、MDD Guidanceはサンプルの忠実さを保ちながら分布アライメントを達成できることが示されている。
論文 参考訳(メタデータ) (2026-01-13T09:42:57Z) - SCOPED: Score-Curvature Out-of-distribution Proximity Evaluator for Diffusion [5.008779702997125]
アウト・オブ・ディストリビューション(OOD)検出は、視覚、ロボット工学、強化学習などにおける機械学習システムの信頼性の高い展開に不可欠である。
SCOPED(Score-Curvature Out-of-distribution Proximity Evaluator for Diffusion)を紹介する。
SCOPEDは、多様なデータセットでトレーニングされた単一の拡散モデルから計算され、モデルのスコア関数のジャコビアントレースと2乗ノルムを単一のテスト統計量に結合する。
4つのビジョンベンチマークでは、SCOPEDは計算コストの低いにもかかわらず、競合または最先端の精度リコールスコアを達成している。
論文 参考訳(メタデータ) (2025-10-01T20:54:49Z) - Multi-modal Bayesian Neural Network Surrogates with Conjugate Last-Layer Estimation [0.30586855806896046]
我々は、2つのマルチモーダルニューラルネットワークサロゲートモデルを開発し、最終層における条件共役分布を利用してモデルパラメータを推定する。
我々は,スカラーデータと時系列データの両方に対する一様サロゲートモデルと比較して,予測精度と不確実性が改善されたことを示す。
論文 参考訳(メタデータ) (2025-09-26T00:13:57Z) - Mitigating Spurious Correlations in LLMs via Causality-Aware Post-Training [57.03005244917803]
大規模言語モデル (LLMs) は、事前学習中に得られた素早い相関関係により、アウト・オブ・ディストリビューション (OOD) のサンプルで失敗することが多い。
ここでは、因果認識後学習(CAPT)を通して、このような素因的相関を緩和することを目的とする。
公式因果推論ベンチマークCLadderと論理推論データセットPrOntoQAの実験により、CAPTで微調整された3Bスケールの言語モデルでは、従来のSFTおよびより大きなLLMを分散処理(ID)およびOODタスクで上回る結果が得られた。
論文 参考訳(メタデータ) (2025-06-11T06:30:28Z) - Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Precise Model Benchmarking with Only a Few Observations [6.092112060364272]
本稿では,各サブグループの直接推定と回帰推定を個別にバランスする経験的ベイズ推定器を提案する。
EBは、直接的および回帰的アプローチと比較して、LCM性能のより正確な推定を一貫して提供する。
論文 参考訳(メタデータ) (2024-10-07T17:26:31Z) - Distributionally Robust Optimization as a Scalable Framework to Characterize Extreme Value Distributions [22.765095010254118]
本研究の目的は分散ロバストな最適化 (DRO) 推定器の開発であり、特に多次元極値理論 (EVT) の統計量についてである。
点過程の空間における半パラメトリックな最大安定制約によって予測されるDRO推定器について検討した。
両手法は, 合成データを用いて検証し, 所定の特性を回復し, 提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-07-31T19:45:27Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - DiffPuter: Empowering Diffusion Models for Missing Data Imputation [56.48119008663155]
本稿ではDiffPuterについて紹介する。DiffPuterは、データ計算の欠如に対する期待最大化(EM)アルゴリズムと組み合わせた、カスタマイズされた拡散モデルである。
我々の理論的解析は、DiffPuterのトレーニングステップがデータ密度の最大推定値に対応することを示している。
DiffPuterは,最も競争力のある既存手法と比較して,MAEが6.94%,RMSEが4.78%向上した。
論文 参考訳(メタデータ) (2024-05-31T08:35:56Z) - How to Train Data-Efficient LLMs [56.41105687693619]
事前学習言語モデル(LLM)に対するデータ効率のアプローチについて検討する。
Ask-LLMと密度サンプリングがそれぞれのカテゴリで最適であることがわかった。
何百もの評価タスクと事前学習作業を含む19個のサンプルを比較したところ,Ask-LLMと密度がそれぞれのカテゴリで最適な方法であることが判明した。
論文 参考訳(メタデータ) (2024-02-15T02:27:57Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Probability Distribution of Hypervolume Improvement in Bi-objective Bayesian Optimization [5.586361810914231]
ハイパーボリューム改善(HVI)は、多目的ベイズ最適化アルゴリズムで一般的に用いられる。
両目的問題に対するHVIの確率分布の正確な表現を提供する。
本稿では,新たな取得関数である$varepsilon$-PoHVIを提案する。
論文 参考訳(メタデータ) (2022-05-11T13:59:35Z) - Listen, Adapt, Better WER: Source-free Single-utterance Test-time
Adaptation for Automatic Speech Recognition [65.84978547406753]
Test-time Adaptationは、ソースドメインでトレーニングされたモデルに適応して、テストサンプルの予測を改善することを目的としている。
単一発話テスト時間適応 (SUTA) は音声領域における最初のTTA研究である。
論文 参考訳(メタデータ) (2022-03-27T06:38:39Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。