論文の概要: Reconciling Shared versus Context-Specific Information in a Neural
Network Model of Latent Causes
- arxiv url: http://arxiv.org/abs/2312.08519v2
- Date: Sat, 2 Mar 2024 02:39:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 20:15:26.591233
- Title: Reconciling Shared versus Context-Specific Information in a Neural
Network Model of Latent Causes
- Title(参考訳): 潜在原因のニューラルネットワークモデルにおける共有情報とコンテキスト情報の再検討
- Authors: Qihong Lu, Tan T. Nguyen, Qiong Zhang, Uri Hasson, Thomas L.
Griffiths, Jeffrey M. Zacks, Samuel J. Gershman, Kenneth A. Norman
- Abstract要約: LCNet(Latent Cause Network)は、LC推論のニューラルネットワークモデルである。
ネットワーク重みの中でタスク間で共有される構造を格納する。
これはコンテキストモジュールを使用してコンテキスト固有の構造を表現する。
- 参考スコア(独自算出の注目度): 13.94689515120847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It has been proposed that, when processing a stream of events, humans divide
their experiences in terms of inferred latent causes (LCs) to support
context-dependent learning. However, when shared structure is present across
contexts, it is still unclear how the "splitting" of LCs and learning of shared
structure can be simultaneously achieved. Here, we present the Latent Cause
Network (LCNet), a neural network model of LC inference. Through learning, it
naturally stores structure that is shared across tasks in the network weights.
Additionally, it represents context-specific structure using a context module,
controlled by a Bayesian nonparametric inference algorithm, which assigns a
unique context vector for each inferred LC. Across three simulations, we found
that LCNet could 1) extract shared structure across LCs in a function learning
task while avoiding catastrophic interference, 2) capture human data on
curriculum effects in schema learning, and 3) infer the underlying event
structure when processing naturalistic videos of daily events. Overall, these
results demonstrate a computationally feasible approach to reconciling shared
structure and context-specific structure in a model of LCs that is scalable
from laboratory experiment settings to naturalistic settings.
- Abstract(参考訳): 一連のイベントを処理する場合、人間は文脈依存学習をサポートするために推論された潜在原因(lcs)の観点で経験を分割することが提案されている。
しかし,共有構造が存在する場合,LCの「分割」と共有構造の学習を同時に行うことができるのかはいまだ不明である。
本稿では,LC推論のニューラルネットワークモデルであるLatent Cause Network(LCNet)を提案する。
学習を通じて、ネットワーク重みの中でタスク間で共有される構造を自然に保存する。
さらに、ベイズ非パラメトリック推論アルゴリズムによって制御されるコンテキストモジュールを用いてコンテキスト固有の構造を表現し、各推定LCに対して独自のコンテキストベクトルを割り当てる。
3つのシミュレーションでLCNetが実現可能であることが分かった。
1)破壊的干渉を避けつつ機能学習タスクにおけるlc間の共有構造を抽出する。
2)スキーマ学習におけるカリキュラム効果に関する人的データを取得し、
3) 日常イベントの自然映像処理の基盤となるイベント構造を推定する。
総じて,実験環境から自然条件設定までスケーラブルなlcsモデルにおいて,共有構造とコンテキスト固有の構造を調和させるための計算可能なアプローチを示す。
関連論文リスト
- Competition Dynamics Shape Algorithmic Phases of In-Context Learning [10.974593590868533]
In-Context Learning (ICL) は、大規模言語モデルの汎用性を大きく拡張した。
マルコフ連鎖の有限混合をシミュレートする学習を含む合成シーケンスモデリングタスクを提案する。
ファジィ検索と推論のアプローチをユニグラムあるいはビッグラムの統計量と組み合わせた4つの広いアルゴリズムに分解することで、モデルの振る舞いを説明できることを示す。
論文 参考訳(メタデータ) (2024-12-01T23:35:53Z) - S$^3$M-Net: Joint Learning of Semantic Segmentation and Stereo Matching
for Autonomous Driving [40.305452898732774]
S$3$M-Netはセマンティックセグメンテーションとステレオマッチングを同時に行うために開発された新しい共同学習フレームワークである。
S$3$M-Netは、両方のタスク間でRGBイメージから抽出された特徴を共有し、全体的なシーン理解能力が改善された。
論文 参考訳(メタデータ) (2024-01-21T06:47:33Z) - Towards More Unified In-context Visual Understanding [74.55332581979292]
マルチモーダル出力を有効にした視覚理解のための新しいICLフレームワークを提案する。
まず、テキストと視覚的プロンプトの両方を量子化し、統一された表現空間に埋め込む。
次にデコーダのみのスパーストランスアーキテクチャを用いて生成モデリングを行う。
論文 参考訳(メタデータ) (2023-12-05T06:02:21Z) - Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - Investigating Neural Architectures by Synthetic Dataset Design [14.317837518705302]
近年、多くの新しいニューラルネットワーク構造(アーキテクチャと層)が出現している。
アドホックな合成データセットを設計することにより,各構造がネットワーク能力に与える影響を測定する手法をスケッチする。
本稿では,以下の3つのネットワーク特性のそれぞれを評価するために,3つのデータセットを構築した手法について述べる。
論文 参考訳(メタデータ) (2022-04-23T10:50:52Z) - CI-Net: Contextual Information for Joint Semantic Segmentation and Depth
Estimation [2.8785764686013837]
本稿では,その問題を解決するために,文脈情報(CI-Net)を注入したネットワークを提案する。
セマンティックラベルの監督により、ネットワークにはコンテキスト情報が埋め込まれており、シーンをよりよく理解することができる。
提案したCI-NetをNYU-Depth-v2およびSUN-RGBDデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-29T07:58:25Z) - Cross-modal Consensus Network for Weakly Supervised Temporal Action
Localization [74.34699679568818]
時間的行動局所化 (WS-TAL) は、ビデオレベルの分類的監督によって、ビデオ内のアクションインスタンスをローカライズすることを目的とした課題である。
この問題に対処するためのクロスモーダルコンセンサスネットワーク(CO2-Net)を提案する。
論文 参考訳(メタデータ) (2021-07-27T04:21:01Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Linguistically Driven Graph Capsule Network for Visual Question
Reasoning [153.76012414126643]
我々は「言語的に駆動されるグラフカプセルネットワーク」と呼ばれる階層的構成推論モデルを提案する。
具体的には,各カプセルを最下層に結合させ,元の質問に1つの単語を埋め込んだ言語的埋め込みを視覚的証拠で橋渡しする。
CLEVRデータセット、CLEVR合成生成テスト、およびFinalQAデータセットの実験は、我々のエンドツーエンドモデルの有効性と構成一般化能力を示す。
論文 参考訳(メタデータ) (2020-03-23T03:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。