論文の概要: Divergent representations of ethological visual inputs emerge from
supervised, unsupervised, and reinforcement learning
- arxiv url: http://arxiv.org/abs/2112.02027v1
- Date: Fri, 3 Dec 2021 17:18:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 16:25:09.987213
- Title: Divergent representations of ethological visual inputs emerge from
supervised, unsupervised, and reinforcement learning
- Title(参考訳): 教師なし・教師なし・強化学習から生じる行動学的視覚入力の異種表現
- Authors: Grace W. Lindsay, Josh Merel, Tom Mrsic-Flogel, Maneesh Sahani
- Abstract要約: 8つの異なる畳み込みニューラルネットワークによって学習された表現を比較する。
強化学習で訓練されたネットワークは,他のネットワークと大きく異なることがわかった。
- 参考スコア(独自算出の注目度): 20.98896935012773
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial neural systems trained using reinforcement, supervised, and
unsupervised learning all acquire internal representations of high dimensional
input. To what extent these representations depend on the different learning
objectives is largely unknown. Here we compare the representations learned by
eight different convolutional neural networks, each with identical ResNet
architectures and trained on the same family of egocentric images, but embedded
within different learning systems. Specifically, the representations are
trained to guide action in a compound reinforcement learning task; to predict
one or a combination of three task-related targets with supervision; or using
one of three different unsupervised objectives. Using representational
similarity analysis, we find that the network trained with reinforcement
learning differs most from the other networks. Through further analysis using
metrics inspired by the neuroscience literature, we find that the model trained
with reinforcement learning has a sparse and high-dimensional representation
wherein individual images are represented with very different patterns of
neural activity. Further analysis suggests these representations may arise in
order to guide long-term behavior and goal-seeking in the RL agent. Our results
provide insights into how the properties of neural representations are
influenced by objective functions and can inform transfer learning approaches.
- Abstract(参考訳): 強化、教師なし、教師なし学習を用いて訓練された人工神経システムは、すべて高次元入力の内部表現を取得する。
これらの表現がどの程度異なる学習目標に依存しているかはほとんど不明である。
ここでは、8つの異なる畳み込みニューラルネットワークによって学習された表現を比較し、それぞれが同一のresnetアーキテクチャを持ち、同じエゴセントリックなイメージのファミリーで訓練されているが、異なる学習システムに組み込まれている。
具体的には、複合強化学習タスクにおける行動の指導、3つのタスク関連目標の1つまたは1つの組み合わせの予測、または3つの異なる教師なし目的の1つを使用するように訓練される。
表現的類似性分析を用いて,強化学習で学習したネットワークが,他のネットワークと最も異なることがわかった。
神経科学の文献にインスパイアされたメトリクスを用いたさらなる分析を通じて、強化学習で訓練されたモデルは、個々の画像が全く異なる神経活動パターンで表現される、疎らで高次元の表現を持つことがわかった。
さらなる分析は、これらの表現がRLエージェントの長期的な行動とゴール探索を導くために生じる可能性を示唆している。
この結果から,ニューラル表現の性質が目的関数にどのように影響するかを把握し,伝達学習のアプローチを知ることができる。
関連論文リスト
- Identifying Sub-networks in Neural Networks via Functionally Similar Representations [41.028797971427124]
我々は、異なるサブネットワークの存在を調査し、ネットワークの理解を自動化するための一歩を踏み出した。
我々のアプローチは、人間と計算コストを最小限に抑えたニューラルネットワークの振る舞いに関する有意義な洞察を提供する。
論文 参考訳(メタデータ) (2024-10-21T20:19:00Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Predictive auxiliary objectives in deep RL mimic learning in the brain [2.6703221234079946]
深層強化学習システムにおいて,予測補助目的が表現学習に与える影響について検討した。
予測的目的は,特に資源限定アーキテクチャにおける学習の改善と安定化を図っている。
我々は、RLシステムの補助的予測モデルと、記憶誘導行動を支援するための予測モデルを学ぶと考えられる海馬との関係を描いている。
論文 参考訳(メタデータ) (2023-10-09T19:06:25Z) - Evaluating alignment between humans and neural network representations in image-based learning tasks [5.657101730705275]
トレーニング済みの860ドルのニューラルネットワークモデルの表現が、人間の学習軌跡にどのようにマッピングされているかテストしました。
トレーニングデータセットのサイズは人間の選択に沿った中核的な決定要因であるのに対し、マルチモーダルデータ(テキストと画像)による対照的なトレーニングは、人間の一般化を予測するために現在公開されているモデルの一般的な特徴であることがわかった。
結論として、事前訓練されたニューラルネットワークは、タスク間で伝達可能な認知の基本的な側面を捉えているように見えるため、認知モデルのための表現を抽出するのに役立つ。
論文 参考訳(メタデータ) (2023-06-15T08:18:29Z) - A picture of the space of typical learnable tasks [12.374133486467013]
深層ネットワークが異なるタスクで学習した表現を理解するための情報幾何学的手法を開発した。
我々は,タスク空間の構造に関連する次のような現象を列挙した。
我々は、CIFAR-10とImagenetデータセットから構築された分類タスクを使用してこれらの現象を研究する。
論文 参考訳(メタデータ) (2022-10-31T01:59:44Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Self-supervised Learning from a Multi-view Perspective [121.63655399591681]
自己教師型表現はタスク関連情報を抽出し,タスク関連情報を破棄することができることを示す。
我々の理論的枠組みは、自己教師型学習目標設計のより広い空間への道を開くものである。
論文 参考訳(メタデータ) (2020-06-10T00:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。