論文の概要: Categorical Distributions are Effective Neural Network Outputs for Event Prediction
- arxiv url: http://arxiv.org/abs/2507.21616v1
- Date: Tue, 29 Jul 2025 09:16:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.96155
- Title: Categorical Distributions are Effective Neural Network Outputs for Event Prediction
- Title(参考訳): カテゴリー分布はイベント予測に有効なニューラルネットワーク出力である
- Authors: Kevin Doran, Tom Baden,
- Abstract要約: 我々は,次のスパイク予測のタスクに対して,単純なニューラルネットワーク出力,カテゴリー的確率分布を用いることの有効性を実証する。
時間的ポイントプロセスモデルを評価するための既存のデータセットの多くは、基礎となるイベント生成プロセスに関する多くの情報を明らかにしていない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We demonstrate the effectiveness of using a simple neural network output, a categorical probability distribution, for the task of next spike prediction. This case study motivates an investigation into why this simple output structure is not commonly used with neural temporal point process models. We find evidence that many existing datasets for evaluating temporal point process models do not reveal much information about the underlying event generating processes, and many existing models perform well due to regularization effects of model size and constraints on output structure. We extend existing datasets and create new ones in order to explore outside of this information limited regime and find that outputting a simple categorical distribution is competitive across a wide range of datasets.
- Abstract(参考訳): 我々は,次のスパイク予測のタスクに対して,単純なニューラルネットワーク出力,カテゴリー的確率分布を用いることの有効性を実証する。
このケーススタディは、なぜこの単純な出力構造がニューラル・テンポラル・ポイント・プロセス・モデルで一般的に使われていないかについての研究を動機付けている。
時間的ポイントプロセスモデルを評価するための既存のデータセットの多くは、基礎となるイベント生成プロセスに関する多くの情報を明らかにしておらず、モデルのサイズや制約が出力構造に与える影響により、多くの既存モデルが良好に機能することを示す。
既存のデータセットを拡張して、この情報制限されたレギュレーションの外を探索するために新しいデータセットを作成します。
関連論文リスト
- Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Iterative self-transfer learning: A general methodology for response
time-history prediction based on small dataset [0.0]
本研究では,小さなデータセットに基づいてニューラルネットワークを学習するための反復的自己伝達学習手法を提案する。
提案手法は,小さなデータセットに対して,ほぼ一桁の精度でモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T18:48:04Z) - Reduced Robust Random Cut Forest for Out-Of-Distribution detection in
machine learning models [0.799536002595393]
ほとんどの機械学習ベースの回帰器は、限られた長さの過去の観測を通して収集されたデータから情報を抽出し、将来予測する。
これらのトレーニングモデルへの入力は、トレーニングに使用されるデータと統計特性が著しく異なるデータである場合、正確な予測は保証されない。
本稿では,ロバストランダムカットフォレストデータ構造を用いた新しい検出手法を提案する。
論文 参考訳(メタデータ) (2022-06-18T17:01:40Z) - Embedding Graph Convolutional Networks in Recurrent Neural Networks for
Predictive Monitoring [0.0]
本稿では,グラフ畳み込みネットワークとリカレントニューラルネットワークに基づくアプローチを提案する。
実生活のイベントログを実験的に評価したところ、我々のアプローチはより一貫性があり、最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-17T17:30:30Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Distributed Learning and its Application for Time-Series Prediction [0.0]
極度の出来事は、規模とポテンシャルが人、インフラ、環境に大きなダメージを与える出来事である。
新型コロナウイルスのパンデミックに悩まされている現在の世界の健康環境の極端な性質に触発され、私たちは極端な出来事をよりよく理解し、モデル化したいと思っています。
論文 参考訳(メタデータ) (2021-06-06T18:57:30Z) - A Multi-Channel Neural Graphical Event Model with Negative Evidence [76.51278722190607]
イベントデータセットは、タイムライン上で不規則に発生するさまざまなタイプのイベントのシーケンスである。
基礎となる強度関数を推定するために,非パラメトリックディープニューラルネットワーク手法を提案する。
論文 参考訳(メタデータ) (2020-02-21T23:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。