論文の概要: Modeling Probabilistic Reduction using Information Theory and Naive Discriminative Learning
- arxiv url: http://arxiv.org/abs/2506.09641v1
- Date: Wed, 11 Jun 2025 11:54:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.908726
- Title: Modeling Probabilistic Reduction using Information Theory and Naive Discriminative Learning
- Title(参考訳): 情報理論とナイーブ識別学習を用いた確率的還元のモデル化
- Authors: Anna Stein, Kevin Tang,
- Abstract要約: 我々はBuckeyeコーパスを用いた3つのモデルについて検討した。1つは情報理論式を用いたNDL由来予測器、もう1つは従来のNDL予測器、もう1つはN-gram確率予測器である。
以上の結果から,N-gramモデルはNDLモデルよりも優れており,NDLが認知モチベーションが高いという仮定に挑戦する。
- 参考スコア(独自算出の注目度): 0.9668407688201361
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study compares probabilistic predictors based on information theory with Naive Discriminative Learning (NDL) predictors in modeling acoustic word duration, focusing on probabilistic reduction. We examine three models using the Buckeye corpus: one with NDL-derived predictors using information-theoretic formulas, one with traditional NDL predictors, and one with N-gram probabilistic predictors. Results show that the N-gram model outperforms both NDL models, challenging the assumption that NDL is more effective due to its cognitive motivation. However, incorporating information-theoretic formulas into NDL improves model performance over the traditional model. This research highlights a) the need to incorporate not only frequency and contextual predictability but also average contextual predictability, and b) the importance of combining information-theoretic metrics of predictability and information derived from discriminative learning in modeling acoustic reduction.
- Abstract(参考訳): 本研究では,情報理論に基づく確率的予測器とNDL予測器を音響単語持続時間のモデル化において比較し,確率的減少に着目した。
我々はBuckeyeコーパスを用いた3つのモデルについて検討した。1つは情報理論式を用いたNDL由来予測器、もう1つは従来のNDL予測器、もう1つはN-gram確率予測器である。
以上の結果から,N-gramモデルの方がNDLモデルよりも優れており,NDLの認知的モチベーションが高いという仮定に疑問が呈された。
しかし、情報理論式をNDLに組み込むことで、従来のモデルよりもモデル性能が向上する。
この研究が目指すのは
a) 頻度及び文脈予測可能性だけでなく、平均文脈予測可能性も組み込む必要があること。
ロ 予測可能性に関する情報理論的指標と、音響的還元のモデル化における識別学習から得られる情報を組み合わせることの重要性。
関連論文リスト
- An Interpretable Alternative to Neural Representation Learning for Rating Prediction -- Transparent Latent Class Modeling of User Reviews [8.392465185798713]
本稿では,レビュー情報に基づいてユーザおよび製品潜伏クラスを編成する透過確率モデルを提案する。
本研究は,テキストベースニューラルネットワークと比較して,解釈可能性と予測性能の両面から評価する。
論文 参考訳(メタデータ) (2024-06-17T07:07:42Z) - When predict can also explain: few-shot prediction to select better neural latents [3.6218162133579703]
共平滑化(co-smoothing)は、潜伏変数を推定し、ホールドアウトチャネルに沿って観測を予測するために用いられる。
本研究では,協調平滑化予測フレームワークの限界を明らかにし,その対策を提案する。
基礎的真理をより正確に反映した潜伏変数を生成するために設計された新しい予測指標を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:48:30Z) - CogDPM: Diffusion Probabilistic Models via Cognitive Predictive Coding [62.075029712357]
本研究は認知拡散確率モデル(CogDPM)を紹介する。
CogDPMは拡散モデルの階層的サンプリング能力に基づく精度推定法と拡散モデル固有の性質から推定される精度重み付きガイダンスを備える。
我々は,Universal Kindomの降水量と表面風速データセットを用いた実世界の予測タスクにCogDPMを適用した。
論文 参考訳(メタデータ) (2024-05-03T15:54:50Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Measuring Causal Effects of Data Statistics on Language Model's
`Factual' Predictions [59.284907093349425]
大量のトレーニングデータが、最先端のNLPモデルの高性能化の大きな理由の1つである。
トレーニングデータがどのように予測に影響を及ぼすかを記述するための言語を,因果的フレームワークを通じて提供する。
我々のフレームワークは、高価なモデルの再訓練の必要性を回避し、観測データのみに基づいて因果効果を推定することができる。
論文 参考訳(メタデータ) (2022-07-28T17:36:24Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Estimating Model Uncertainty of Neural Networks in Sparse Information
Form [39.553268191681376]
ディープニューラルネットワーク(DNN)におけるモデル不確実性のスパース表現について述べる。
我々の研究の重要な洞察は、情報行列はそのスペクトルにおいてスパースである傾向があることである。
DNNにおけるモデル不確実性を表すために,情報形式が適用可能であることを示す。
論文 参考訳(メタデータ) (2020-06-20T18:09:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。