論文の概要: Actively learning a Bayesian matrix fusion model with deep side
information
- arxiv url: http://arxiv.org/abs/2306.05331v1
- Date: Thu, 8 Jun 2023 16:31:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 13:14:51.905899
- Title: Actively learning a Bayesian matrix fusion model with deep side
information
- Title(参考訳): 深部情報を用いたベイズ行列融合モデルの能動的学習
- Authors: Yangyang Yu, Jordan W. Suchow
- Abstract要約: 画像と概念の高次元ディープニューラルネットワーク表現は、多様な刺激の人間のアノテーションを予測するために調整することができる。
実験刺激を適応的にサンプリングする能動的学習手法を提案する。
我々は受動ベースラインよりも大きな効率向上を観察する。
- 参考スコア(独自算出の注目度): 1.421397337947365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-dimensional deep neural network representations of images and concepts
can be aligned to predict human annotations of diverse stimuli. However, such
alignment requires the costly collection of behavioral responses, such that, in
practice, the deep-feature spaces are only ever sparsely sampled. Here, we
propose an active learning approach to adaptively sampling experimental stimuli
to efficiently learn a Bayesian matrix factorization model with deep side
information. We observe a significant efficiency gain over a passive baseline.
Furthermore, with a sequential batched sampling strategy, the algorithm is
applicable not only to small datasets collected from traditional laboratory
experiments but also to settings where large-scale crowdsourced data collection
is needed to accurately align the high-dimensional deep feature representations
derived from pre-trained networks.
- Abstract(参考訳): 画像や概念の高次元深層ニューラルネットワーク表現は、多様な刺激の人間の注釈を予測するために調整できる。
しかし、そのようなアライメントにはコストのかかる行動応答の収集が必要であるため、実際には深層空間はわずかにサンプリングされるのみである。
本稿では,実験刺激を適応的にサンプリングし,深い側面情報を持つベイズ行列因子化モデルを効率的に学習するアクティブラーニング手法を提案する。
我々は受動ベースラインよりも大きな効率向上を観察する。
さらに、逐次バッチサンプリング戦略により、従来の実験実験から収集した小さなデータセットだけでなく、事前学習ネットワークから得られた高次元の深い特徴表現を正確に整合させるために大規模なクラウドソースデータ収集が必要な設定にも適用することができる。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Generative Neural Fields by Mixtures of Neural Implicit Functions [43.27461391283186]
本稿では,暗黙的ベースネットワークの線形結合によって表現される生成的ニューラルネットワークを学習するための新しいアプローチを提案する。
提案アルゴリズムは,メタラーニングや自動デコーディングのパラダイムを採用することにより,暗黙のニューラルネットワーク表現とその係数を潜在空間で学習する。
論文 参考訳(メタデータ) (2023-10-30T11:41:41Z) - Optimal Sample Selection Through Uncertainty Estimation and Its
Application in Deep Learning [22.410220040736235]
コアセット選択とアクティブラーニングの両方に対処するための理論的に最適な解を提案する。
提案手法であるCOPSは,サブサンプルデータに基づいてトレーニングされたモデルの損失を最小限に抑えるために設計されている。
論文 参考訳(メタデータ) (2023-09-05T14:06:33Z) - Iterative self-transfer learning: A general methodology for response
time-history prediction based on small dataset [0.0]
本研究では,小さなデータセットに基づいてニューラルネットワークを学習するための反復的自己伝達学習手法を提案する。
提案手法は,小さなデータセットに対して,ほぼ一桁の精度でモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T18:48:04Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Feature Space Particle Inference for Neural Network Ensembles [13.392254060510666]
粒子ベースの推論法はベイズの観点から有望なアプローチを提供する。
特定の中間層が活性化される特徴空間における粒子の最適化を提案する。
提案手法は,各メンバーに対して,アンサンブル予測の堅牢性の向上を期待する特徴を捉えることを奨励する。
論文 参考訳(メタデータ) (2022-06-02T09:16:26Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Efficacy of Bayesian Neural Networks in Active Learning [11.609770399591516]
ベイズニューラルネットワークは、アンサンブルに基づく不確実性を捕捉する技術よりも効率的であることを示す。
また,近年,モンテカルロのドロップアウトよりも効果的であることが判明したアンサンブル技法の重要な欠点も明らかにした。
論文 参考訳(メタデータ) (2021-04-02T06:02:11Z) - Neural BRDF Representation and Importance Sampling [79.84316447473873]
本稿では,リフレクタンスBRDFデータのコンパクトニューラルネットワークに基づく表現について述べる。
BRDFを軽量ネットワークとしてエンコードし、適応角サンプリングによるトレーニングスキームを提案する。
複数の実世界のデータセットから等方性および異方性BRDFの符号化結果を評価する。
論文 参考訳(メタデータ) (2021-02-11T12:00:24Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Deep Dimension Reduction for Supervised Representation Learning [51.10448064423656]
本研究は,本質的な特徴を持つ学習表現の次元削減手法を提案する。
提案手法は, 十分次元還元法の非パラメトリック一般化である。
推定された深度非パラメトリック表現は、その余剰リスクが0に収束するという意味で一貫したものであることを示す。
論文 参考訳(メタデータ) (2020-06-10T14:47:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。