論文の概要: Homomorphism Autoencoder -- Learning Group Structured Representations
from Observed Transitions
- arxiv url: http://arxiv.org/abs/2207.12067v1
- Date: Mon, 25 Jul 2022 11:22:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:53:55.994321
- Title: Homomorphism Autoencoder -- Learning Group Structured Representations
from Observed Transitions
- Title(参考訳): 準同型オートエンコーダ --観察された遷移からの学習群構造化表現
- Authors: Hamza Keurti, Hsiao-Ru Pan, Michel Besserve, Benjamin F. Grewe,
Bernhard Sch\"olkopf
- Abstract要約: 表現学習とグループ理論からツールを用いて問題を研究する。
我々のアクチュエータが世界に作用するという仮定の下では、感覚情報だけでなく、世界の行動や遷移と整合した方法で感覚表現を変更する行動の内的表現を学習する手法を提案する。
既存の研究と比較して,本手法は群表現の仮定を少なくし,エージェントがグループからどの変換をサンプリングできるかを仮定する。
- 参考スコア(独自算出の注目度): 12.0695530425315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can we acquire world models that veridically represent the outside world
both in terms of what is there and in terms of how our actions affect it? Can
we acquire such models by interacting with the world, and can we state
mathematical desiderata for their relationship with a hypothetical reality
existing outside our heads? As machine learning is moving towards
representations containing not just observational but also interventional
knowledge, we study these problems using tools from representation learning and
group theory. Under the assumption that our actuators act upon the world, we
propose methods to learn internal representations of not just sensory
information but also of actions that modify our sensory representations in a
way that is consistent with the actions and transitions in the world. We use an
autoencoder equipped with a group representation linearly acting on its latent
space, trained on 2-step reconstruction such as to enforce a suitable
homomorphism property on the group representation. Compared to existing work,
our approach makes fewer assumptions on the group representation and on which
transformations the agent can sample from the group. We motivate our method
theoretically, and demonstrate empirically that it can learn the correct
representation of the groups and the topology of the environment. We also
compare its performance in trajectory prediction with previous methods.
- Abstract(参考訳): 私たちの行動が外界にどう影響するかという観点からも、外界を検証的に表す世界モデルをどのように取得することができるのか?
世界と相互作用してそのようなモデルを得ることができ、頭の外に存在する仮説的現実との関係について数学的デシラタを記述できるだろうか?
機械学習は観察的だけでなく介入的知識も含む表現へと向かっているため、表現学習やグループ理論のツールを用いてこれらの問題を研究している。
我々のアクチュエータが世界に作用するという仮定の下では、感覚情報だけでなく、世界の行動や遷移と整合した方法で感覚表現を変更する行動の内的表現を学習する手法を提案する。
我々は,その潜在空間に線形に作用する群表現を備えたオートエンコーダを用いて,群表現に適切な準同型性を強制する2段階再構成を訓練する。
既存の作業と比較して、このアプローチはグループ表現とエージェントがグループからサンプルできる変換についての仮定を少なくします。
提案手法は理論的に動機付けを行い,そのグループと環境のトポロジの正しい表現を学習できることを実証的に証明する。
また,軌道予測の性能を従来の手法と比較した。
関連論文リスト
- A Pattern Language for Machine Learning Tasks [0.0]
我々は客観的関数を学習者の行動に関する制約と見なしている。
動作の中核となるタスクと実装の詳細を分離できる形式的なグラフィカル言語を開発する。
概念実証として、「マニピュレータ」と呼ぶ生成モデルに分類器を変換できる新しいタスクを設計する。
論文 参考訳(メタデータ) (2024-07-02T16:50:27Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Perceptual Group Tokenizer: Building Perception with Iterative Grouping [14.760204235027627]
本稿では,視覚的特徴を抽出し,自己指導型表現学習を行うためにグループ化操作に依存するパーセプチュアル・グループ・トケナイザを提案する。
提案モデルは,最先端のビジョンアーキテクチャと比較して,競争力のある計算性能を実現することができることを示す。
論文 参考訳(メタデータ) (2023-11-30T07:00:14Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - Robust and Controllable Object-Centric Learning through Energy-based
Models [95.68748828339059]
我々の研究は概念的にシンプルで一般的なアプローチであり、エネルギーベースモデルを通してオブジェクト中心の表現を学習する。
既存のアーキテクチャに容易に統合でき、高品質なオブジェクト中心表現を効果的に抽出できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:11:15Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Observing a group to infer individual characteristics [1.0152838128195465]
本研究では, 現地住民がエージェントの動きをどう支援するか, あるいは妨げるかを, 観測した動き情報のみに基づいて推定する新しいオブザーバアルゴリズムを提案する。
従来の教師付き学習アプローチとは異なり、このアルゴリズムは物理的な洞察とスケーリング引数に基づいており、トレーニングデータに依存しない。
このようなデータに依存しないアプローチは、クリーンでラベル付けされたデータが入手が困難な現実世界の多くの問題と関連している。
論文 参考訳(メタデータ) (2021-10-12T09:59:54Z) - Domain-Robust Visual Imitation Learning with Mutual Information
Constraints [0.0]
Disentangling Generative Adversarial Imitation Learning (DisentanGAIL)と呼ばれる新しいアルゴリズムを導入する。
本アルゴリズムは,タスクを実行する専門家の高次元観察から自律エージェントを直接学習することを可能にする。
論文 参考訳(メタデータ) (2021-03-08T21:18:58Z) - On the Sensory Commutativity of Action Sequences for Embodied Agents [2.320417845168326]
群論の数学的形式論に基づくエンボディエージェントの知覚について検討する。
本稿では,エージェントの自由度が環境に与える影響を計測する感覚コミュニケーション確率基準を提案する。
本研究では,SCPと行動系列の可換性を用いて環境中の物体を学習する方法を実証的に説明する。
論文 参考訳(メタデータ) (2020-02-13T16:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。