論文の概要: The Practicality of Normalizing Flow Test-Time Training in Bayesian Inference for Agent-Based Models
- arxiv url: http://arxiv.org/abs/2601.07413v1
- Date: Mon, 12 Jan 2026 10:55:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.346335
- Title: The Practicality of Normalizing Flow Test-Time Training in Bayesian Inference for Agent-Based Models
- Title(参考訳): エージェントモデルに基づくベイズ推論におけるフローテストタイムトレーニングの正規化
- Authors: Junyao Zhang, Jinglai Li, Junqi Tang,
- Abstract要約: 本研究では,流れの正規化などの深部モデルにおけるテストタイムトレーニング(TTT)の実践性を初めて検討する。
数値解析により,TTT方式が極めて有効であることが示され,ABMパラメータのフローベース推論のリアルタイム調整が可能となった。
- 参考スコア(独自算出の注目度): 5.56170994755393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agent-Based Models (ABMs) are gaining great popularity in economics and social science because of their strong flexibility to describe the realistic and heterogeneous decisions and interaction rules between individual agents. In this work, we investigate for the first time the practicality of test-time training (TTT) of deep models such as normalizing flows, in the parameters posterior estimations of ABMs. We propose several practical TTT strategies for fine-tuning the normalizing flow against distribution shifts. Our numerical study demonstrates that TTT schemes are remarkably effective, enabling real-time adjustment of flow-based inference for ABM parameters.
- Abstract(参考訳): エージェントベースモデル(ABM)は、現実的で異質な決定と個々のエージェント間の相互作用規則を記述する柔軟性が強いため、経済学や社会科学において大きな人気を集めている。
本研究では,ABMのパラメータ回帰推定において,流れの正規化などの深部モデルにおけるテストタイムトレーニング(TTT)の実践性を初めて検討する。
本稿では,分散シフトに対する正規化フローを微調整するための実用的TTT戦略を提案する。
数値解析により,TTT方式が極めて有効であることが示され,ABMパラメータのフローベース推論のリアルタイム調整が可能となった。
関連論文リスト
- Implicit Modeling for Transferability Estimation of Vision Foundation Models [33.73062179456684]
Implicit Transferability Modeling (ITM)は、各モデルの固有のトランスファービリティを暗黙的にモデル化する新しいフレームワークである。
ITMは、安定性、有効性、効率の点で既存の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-10-27T09:21:19Z) - Specialization after Generalization: Towards Understanding Test-Time Training in Foundation Models [64.02612380298228]
最近の研究は、テストタイムトレーニング(TTT)として知られる特定のタスクに対して、テストタイムでモデルをトレーニングし続けるというアイデアを探求している。
本稿では,TTTがグローバルトレーニングよりもはるかに小さな分布内テスト誤差を達成できるモデルを提案する。
我々は、ImageNet上でスパースオートエンコーダをトレーニングすることで、モデルの主要な仮定を実証的に検証する。
論文 参考訳(メタデータ) (2025-09-29T09:24:52Z) - Implicit Reward as the Bridge: A Unified View of SFT and DPO Connections [65.36449542323277]
本稿では,Large Language Model (LLM) 後の学習において,SFT(Supervised Fine-Tuning) と優先学習を統合した理論フレームワークを提案する。
そこで本研究では,学習率の簡易かつ効果的な削減手法を提案する。
論文 参考訳(メタデータ) (2025-06-15T05:42:29Z) - Provable Meta-Learning with Low-Rank Adaptations [37.120226706944926]
本稿では,PEFTをベースとしたメタラーニングフレームワークを導入し,未知のタスクに容易に適応できるモデルを学習する。
LoRAを用いた線形モデルでは、適応可能なパラメータの集合を見つけるのに標準再学習が確実に最適であることを示す。
我々は、これらの理論的洞察を、実データビジョンや言語タスクと同様に、合成データの実験を通じて検証する。
論文 参考訳(メタデータ) (2024-10-29T17:24:18Z) - MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Variational Inference of Parameters in Opinion Dynamics Models [9.51311391391997]
この研究は、変数推論を用いて、意見力学 ABM のパラメータを推定する。
我々は推論プロセスを自動微分に適した最適化問題に変換する。
提案手法は, シミュレーションベース法とMCMC法より, マクロ的(有界信頼区間とバックファイア閾値)と微視的(200ドル, エージェントレベルの役割)の両方を正確に推定する。
論文 参考訳(メタデータ) (2024-03-08T14:45:18Z) - TEA: Test-time Energy Adaptation [67.4574269851666]
テスト時間適応(TTA)は、テストデータがトレーニング分布から分岐する際のモデル一般化性を改善することを目的としている。
本稿では,対象データ分布に対するモデルによる認識を高めるための,新しいエネルギーベース視点を提案する。
論文 参考訳(メタデータ) (2023-11-24T10:49:49Z) - Test-Time Adaptation with Perturbation Consistency Learning [32.58879780726279]
そこで本研究では, 分布変化のあるサンプルに対して, 安定な予測を行うための簡易なテスト時間適応手法を提案する。
提案手法は,強力なPLMバックボーンよりも推論時間が少なく,高い,あるいは同等の性能を実現することができる。
論文 参考訳(メタデータ) (2023-04-25T12:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。