論文の概要: Neural Networks for Latent Budget Analysis of Compositional Data
- arxiv url: http://arxiv.org/abs/2109.04875v1
- Date: Fri, 10 Sep 2021 13:43:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:38:05.945990
- Title: Neural Networks for Latent Budget Analysis of Compositional Data
- Title(参考訳): 構成データの潜在予算分析のためのニューラルネットワーク
- Authors: Zhenwei Yang, Ayoub Bagheri and P.G.M van der Heijden
- Abstract要約: 潜伏予算分析(LBA)は、観測された予算を説明する潜伏予算の混合を仮定する。
これまでの研究では、不満足な予測能力によって妨げられた制約付きニューラルネットワーク(NN)の拡張が提案されていた。
本稿では,フィードフォワードNNモデルであるLBA-NNを提案する。
LBA-NNは精度,特異性,リコール,平均二乗誤差の予測において,LBAよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compositional data are non-negative data collected in a rectangular matrix
with a constant row sum. Due to the non-negativity the focus is on conditional
proportions that add up to 1 for each row. A row of conditional proportions is
called an observed budget. Latent budget analysis (LBA) assumes a mixture of
latent budgets that explains the observed budgets. LBA is usually fitted to a
contingency table, where the rows are levels of one or more explanatory
variables and the columns the levels of a response variable. In prospective
studies, there is only knowledge about the explanatory variables of individuals
and interest goes out to predicting the response variable. Thus, a form of LBA
is needed that has the functionality of prediction. Previous studies proposed a
constrained neural network (NN) extension of LBA that was hampered by an
unsatisfying prediction ability. Here we propose LBA-NN, a feed forward NN
model that yields a similar interpretation to LBA but equips LBA with a better
ability of prediction. A stable and plausible interpretation of LBA-NN is
obtained through the use of importance plots and table, that show the relative
importance of all explanatory variables on the response variable. An LBA-NN-K-
means approach that applies K-means clustering on the importance table is used
to produce K clusters that are comparable to K latent budgets in LBA. Here we
provide different experiments where LBA-NN is implemented and compared with
LBA. In our analysis, LBA-NN outperforms LBA in prediction in terms of
accuracy, specificity, recall and mean square error. We provide open-source
software at GitHub.
- Abstract(参考訳): 構成データは、定列和の長方行列で収集された非負のデータである。
非負性のため、各行に対して1まで増加する条件比に焦点が当てられている。
条件比率の列は観測予算(observed budget)と呼ばれる。
潜在予算分析(lba)は、観察された予算を説明する潜在予算の混合を仮定する。
LBAは通常、列が1つ以上の説明変数のレベルであり、列が応答変数のレベルであるインスタンステーブルに取り付けられる。
将来的な研究では、個人の説明変数についてのみ知識があり、興味は反応変数を予測する。
したがって、予測機能を備えたLBAの形式が必要である。
これまでの研究では、lbaの制約付きニューラルネットワーク(nn)拡張が、不満足な予測能力によって妨げられた。
本稿では,lba-nnモデルを提案する。lbaモデルと同様の解釈を得られるが,lbaの予測能力は向上する。
LBA-NNの安定かつ妥当な解釈は、応答変数に対する全ての説明変数の相対的重要性を示す重要プロットと表を用いて得られる。
重要度表にK平均クラスタリングを適用するLBA-NN-Kmeansアプローチは、LBAのK潜在予算に匹敵するKクラスタを生成するために使用される。
ここでは,LBA-NNを実装し,LBAと比較する実験を行う。
LBA-NNは精度,特異性,リコール,平均二乗誤差の予測において,LBAよりも優れていた。
私たちはGitHubでオープンソースソフトウェアを提供しています。
関連論文リスト
- Sparse PCA with Oracle Property [115.72363972222622]
新規な正規化を伴うスパースPCAの半定緩和に基づく推定器群を提案する。
我々は、家族内の別の推定器が、スパースPCAの標準半定緩和よりも、より急激な収束率を達成することを証明した。
論文 参考訳(メタデータ) (2023-12-28T02:52:54Z) - Co-data Learning for Bayesian Additive Regression Trees [0.0]
本稿では,コデータから木間関係の予測モデルを構築することを提案する。
提案手法は複数のデータ型を同時に扱うことができる。
Co-dataは、大きなB細胞リンパ腫の予後を拡散させる用途における予測を強化する。
論文 参考訳(メタデータ) (2023-11-16T16:14:39Z) - How Many Pretraining Tasks Are Needed for In-Context Learning of Linear Regression? [92.90857135952231]
様々なタスクで事前訓練されたトランスフォーマーは、顕著なインコンテキスト学習(ICL)能力を示す。
線形回帰のための線形パラメータ化単一層線形アテンションモデルの事前学習を行う。
論文 参考訳(メタデータ) (2023-10-12T15:01:43Z) - How Predictable Are Large Language Model Capabilities? A Case Study on
BIG-bench [52.11481619456093]
実験記録におけるBIGベンチの性能予測問題について検討する。
95%以上のR2$スコアは、実験記録の中に学習可能なパターンが存在することを示している。
BIG-bench Hardのように新しいモデルファミリーを評価できるサブセットが3倍程度小さくなっています。
論文 参考訳(メタデータ) (2023-05-24T09:35:34Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - SGDP: A Stream-Graph Neural Network Based Data Prefetcher [19.990422170963324]
本稿では,SGDP(Stream-Graph Neural Network-based Data Prefetcher)を提案する。
SGDPは、LBAデルタ間の相互作用関係を表現するために重み付き有向グラフ構造を用いたLBAデルタストリームをモデル化する。
実験の結果、SGDPがSOTA法を6.21%、有効プレフェッチ率7.00%で上回り、平均3.13倍の速さで上回っていることが確認された。
論文 参考訳(メタデータ) (2023-04-07T23:25:48Z) - The Power and Limitation of Pretraining-Finetuning for Linear Regression
under Covariate Shift [127.21287240963859]
本研究では,対象データに基づく事前学習と微調整を併用した伝達学習手法について検討する。
大規模な線形回帰インスタンスの場合、$O(N2)$ソースデータによる転送学習は、$N$ターゲットデータによる教師あり学習と同じくらい効果的である。
論文 参考訳(メタデータ) (2022-08-03T05:59:49Z) - Discrete Langevin Sampler via Wasserstein Gradient Flow [102.94731267405056]
離散空間におけるワッサーシュタイン勾配流に対応する LB 関数がどのように LB 力学をもたらすかを示す。
シミュレーション時間に関してLBダイナミクスを識別し,新しいアルゴリズムであるLocally Balanced Jump (LBJ)を提案する。
論文 参考訳(メタデータ) (2022-06-29T20:33:54Z) - Beyond Ridge Regression for Distribution-Free Data [8.523307608620094]
正規化最大可能性 (pNML) は、データ上に分布の仮定が作成されない分布自由設定に対する min-max 後悔解として提案されている。
仮説クラスに事前のような関数を適用することで、その有効サイズが減少する。
尾根回帰経験的リスク最小化器(Ridge ERM)によるLpNML予測と関連するpNML
我々のLpNMLは、PMLB集合のリッジERM誤差を最大20%低減し、
論文 参考訳(メタデータ) (2022-06-17T13:16:46Z) - ALBU: An approximate Loopy Belief message passing algorithm for LDA to
improve performance on small data sets [3.5027291542274366]
本稿では,LDA(Latent Dirichlet Allocation)に適用した新しい変分メッセージパッシングアルゴリズムを提案する。
金の標準VBとGibsサンプリングアルゴリズムを比較検討した。
テキストコーパスとKLDのコヒーレンス測定とシミュレーションを用いて、ALBUはVBよりも正確な潜伏分布を学習することを示す。
論文 参考訳(メタデータ) (2021-10-01T19:55:12Z) - Computationally and Statistically Efficient Truncated Regression [36.3677715543994]
計算的かつ統計的に効率的な線形回帰の古典的問題に対する推定器を提供する。
提案手法では, トランキャット標本の負の対数類似度に代わることなく, プロジェクテッド・Descent Gradient (PSGD) を用いて推定する。
本稿では,SGDが単一層ニューラルネットワークの雑音活性化関数のパラメータを学習することを示す。
論文 参考訳(メタデータ) (2020-10-22T19:31:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。