論文の概要: Learning Generative Models for Active Inference using Tensor Networks
- arxiv url: http://arxiv.org/abs/2208.08713v1
- Date: Thu, 18 Aug 2022 08:55:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:03:13.796424
- Title: Learning Generative Models for Active Inference using Tensor Networks
- Title(参考訳): テンソルネットワークを用いたアクティブ推論のための生成モデル学習
- Authors: Samuel T. Wauthier, Bram Vanhecke, Tim Verbelen, Bart Dhoedt
- Abstract要約: 量子物理学に基づくテンソルネットワークを用いた状態空間の学習手法を提案する。
テンソルネットワークが量子状態の確率的性質を表現したり、大きな状態空間を減らしたりすることで、活性推論の自然な候補となる。
このような生成モデルから信念を得る方法と、期待される自由エネルギーを計算するためにアクティブな推論エージェントがどのように使用できるかを示す。
- 参考スコア(独自算出の注目度): 4.6956495676681484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active inference provides a general framework for behavior and learning in
autonomous agents. It states that an agent will attempt to minimize its
variational free energy, defined in terms of beliefs over observations,
internal states and policies. Traditionally, every aspect of a discrete active
inference model must be specified by hand, i.e.\ by manually defining the
hidden state space structure, as well as the required distributions such as
likelihood and transition probabilities. Recently, efforts have been made to
learn state space representations automatically from observations using deep
neural networks. However, these models are typically overparameterized, with
the risk of overfitting the data at hand. In this paper, we present a novel
approach of learning state spaces using quantum physics-inspired tensor
networks. The ability of tensor networks to represent the probabilistic nature
of quantum states as well as to reduce large state spaces makes tensor networks
a natural candidate for active inference. We show how tensor networks can be
used as a generative model for sequential data. Furthermore, we show how one
can obtain beliefs from such a generative model and how an active inference
agent can use these to compute the expected free energy. Finally, we
demonstrate our method on the classic T-maze environment.
- Abstract(参考訳): アクティブ推論は自律エージェントの振る舞いと学習のための一般的なフレームワークを提供する。
エージェントは、観察、内部状態、政策に対する信念の観点から定義される変動自由エネルギーを最小化しようとする。
伝統的に、離散的能動推論モデルのすべての側面は手動で、すなわち隠れた状態空間構造を手動で定義し、可能性や遷移確率などの必要な分布を指定しなければならない。
近年,深層ニューラルネットワークを用いた観測から状態空間表現を自動的に学習する取り組みが進められている。
しかし、これらのモデルは一般的に過パラメータ化され、手元にあるデータに過度に適合するリスクがある。
本稿では,量子物理学に基づくテンソルネットワークを用いた状態空間の学習手法を提案する。
量子状態の確率的性質を表現するテンソルネットワークの能力と、大きな状態空間を減らす能力により、テンソルネットワークは能動推論の自然な候補となる。
逐次データ生成モデルとしてテンソルネットワークをどのように利用できるかを示す。
さらに,そのような生成モデルから信念を得る方法と,アクティブ推論エージェントがこれらを用いて期待自由エネルギーを計算する方法を示す。
最後に,古典的なT迷路環境における手法を実証する。
関連論文リスト
- Tensor Network Computations That Capture Strict Variationality, Volume Law Behavior, and the Efficient Representation of Neural Network States [0.6148049086034199]
本稿では,振幅の収縮の計算グラフによって定義されるテンソルネットワーク状態の視点変化を紹介する。
結果として得られる状態のクラスはテンソルネットワーク関数と呼ばれ、テンソルネットワーク状態の概念上の利点を継承し、近似された収縮を収束させる必要から生じる計算的制約を除去する。
テンソルネットワーク関数を用いて、ループグラフ上のエネルギーの厳密な変動推定を計算し、基底状態の表現力を解析し、体積法則の時間進化の側面を捉え、一般的なフィードフォワードニューラルネットワークの効率的なテンソルネットワーク関数へのマッピングを提供する。
論文 参考訳(メタデータ) (2024-05-06T19:04:13Z) - Generative Learning of Continuous Data by Tensor Networks [45.49160369119449]
本稿では,連続データのためのテンソルネットワーク生成モデルについて紹介する。
我々は、このモデルの性能を、いくつかの合成および実世界のデータセットでベンチマークする。
本手法は, 急速に成長する生成学習分野において, 量子インスピレーション法の有効性を示す重要な理論的, 実証的な証拠を与える。
論文 参考訳(メタデータ) (2023-10-31T14:37:37Z) - Understanding Activation Patterns in Artificial Neural Networks by
Exploring Stochastic Processes [0.0]
我々はこれまで未利用であったプロセスの枠組みを活用することを提案する。
我々は、実際のニューロンスパイク列車に使用される神経科学技術を活用した、アクティベーション周波数のみに焦点をあてる。
各ネットワークにおけるアクティベーションパターンを記述するパラメータを導出し、アーキテクチャとトレーニングセット間で一貫した差異を明らかにする。
論文 参考訳(メタデータ) (2023-08-01T22:12:30Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Disentangling Shape and Pose for Object-Centric Deep Active Inference
Models [4.298360054690217]
本稿では,3次元オブジェクト表現の問題点を考察し,ShapeNetデータセットの異なるインスタンスに着目した。
深層ニューラルネットワークを用いて各因子の表現を学習しながら,対象の形状,ポーズ,カテゴリを分解するモデルを提案する。
論文 参考訳(メタデータ) (2022-09-16T12:53:49Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Anomaly Detection with Tensor Networks [2.3895981099137535]
テンソルネットワークのメモリと計算効率を利用して、原特徴数の次元指数で空間上の線形変換を学習する。
画像の局所性を利用していないにもかかわらず、画像データセット上で競合する結果を生成する。
論文 参考訳(メタデータ) (2020-06-03T20:41:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。