論文の概要: Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments
- arxiv url: http://arxiv.org/abs/2109.07855v1
- Date: Thu, 16 Sep 2021 10:37:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 22:33:44.331816
- Title: Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments
- Title(参考訳): 3次元仮想環境生成による連続学習アルゴリズムの評価
- Authors: Enrico Meloni, Alessandro Betti, Lapo Faggi, Simone Marullo, Matteo
Tiezzi, Stefano Melacci
- Abstract要約: 連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
- 参考スコア(独自算出の注目度): 66.83839051693695
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Continual learning refers to the ability of humans and animals to
incrementally learn over time in a given environment. Trying to simulate this
learning process in machines is a challenging task, also due to the inherent
difficulty in creating conditions for designing continuously evolving dynamics
that are typical of the real-world. Many existing research works usually
involve training and testing of virtual agents on datasets of static images or
short videos, considering sequences of distinct learning tasks. However, in
order to devise continual learning algorithms that operate in more realistic
conditions, it is fundamental to gain access to rich, fully customizable and
controlled experimental playgrounds. Focussing on the specific case of vision,
we thus propose to leverage recent advances in 3D virtual environments in order
to approach the automatic generation of potentially life-long dynamic scenes
with photo-realistic appearance. Scenes are composed of objects that move along
variable routes with different and fully customizable timings, and randomness
can also be included in their evolution. A novel element of this paper is that
scenes are described in a parametric way, thus allowing the user to fully
control the visual complexity of the input stream the agent perceives. These
general principles are concretely implemented exploiting a recently published
3D virtual environment. The user can generate scenes without the need of having
strong skills in computer graphics, since all the generation facilities are
exposed through a simple high-level Python interface. We publicly share the
proposed generator.
- Abstract(参考訳): 連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
この学習プロセスを機械でシミュレートしようという試みは、現実の世界に典型的な連続的に進化するダイナミクスを設計するための条件を作るのに固有の困難さのため、難しい作業である。
既存の研究の多くは、異なる学習タスクのシーケンスを考慮して、静的画像やショートビデオのデータセット上の仮想エージェントのトレーニングとテストを含む。
しかし, より現実的な条件下での連続学習アルゴリズムの考案には, 豊かな, 完全にカスタマイズ可能な, 制御された実験遊び場へのアクセスが不可欠である。
そこで,視覚の具体的事例に着目し,3d仮想環境における最近の進歩を活かし,写真リアルな外観を持つ生涯の動的シーンの自動生成にアプローチすることを提案する。
シーンは、異なるカスタマイズ可能なタイミングで可変経路に沿って移動するオブジェクトで構成されており、ランダム性もその進化に含めることができる。
この論文の新たな要素は、シーンをパラメトリックに記述することで、エージェントが知覚する入力ストリームの視覚的な複雑さを完全に制御できることである。
これらの一般的な原則は、最近公開された3D仮想環境を利用して具体的に実装されている。
ユーザはコンピュータグラフィックスの強力なスキルを必要とせずにシーンを生成することができる。
提案されたジェネレータを公開します。
関連論文リスト
- Scaling Instructable Agents Across Many Simulated Worlds [70.97268311053328]
私たちのゴールは、シミュレーションされた3D環境で人間ができることを何でも達成できるエージェントを開発することです。
我々のアプローチは、最小限の仮定を示唆しながら、言語駆動の一般性に焦点を当てている。
我々のエージェントは、汎用的なヒューマンライクなインタフェースを使って、リアルタイムで環境と対話する。
論文 参考訳(メタデータ) (2024-03-13T17:50:32Z) - Self-supervised novel 2D view synthesis of large-scale scenes with
efficient multi-scale voxel carving [77.07589573960436]
実シーンの新たなビューを生成するために,効率的なマルチスケールのボクセル彫刻手法を提案する。
我々の最終的な高解像度出力は、ボクセル彫刻モジュールによって自動的に生成されるデータに基づいて効率よく自己学習される。
実環境における複雑で大規模なシーンにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-06-26T13:57:05Z) - 3D-IntPhys: Towards More Generalized 3D-grounded Visual Intuitive
Physics under Challenging Scenes [68.66237114509264]
複雑なシーンと流体の映像から3次元的な視覚的直感的な物理モデルを学習できるフレームワークを提案する。
本モデルでは,生画像から学習し,明示的な3次元表現空間を用いないモデルよりもはるかに優れた将来予測が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-22T19:28:49Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Messing Up 3D Virtual Environments: Transferable Adversarial 3D Objects [21.86544028303682]
本研究では, 容易にアクセス可能な要素からなるツールチェーンを用いて, テクスチャを変更することで, 対向3Dオブジェクトの製作方法について検討する。
既成の制限されたサロゲートを用いて、対向オブジェクトを作成することは可能であり、実際に簡単であることを示す。
そこで本研究では, 2種類の対角線を交差させて, ターゲットエンジンに有効と推定されるテクスチャ要素に変化を集中させるサリエンシ攻撃を提案する。
論文 参考訳(メタデータ) (2021-09-17T11:06:23Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z) - SceneGen: Generative Contextual Scene Augmentation using Scene Graph
Priors [3.1969855247377827]
SceneGenは、既存のシーン内の仮想オブジェクトの位置と方向を予測する、生成的コンテキスト拡張フレームワークである。
SceneGenはセグメンテーションされたシーンを入力として、仮想コンテンツを置くための位置と向きの確率マップを出力する。
オブジェクト, オブジェクト群, 部屋間の明確な位相特性をカプセル化した空間的シーングラフ表現を定式化する。
そこで本研究では,オブジェクトをリアルタイムに拡張可能な拡張現実アプリケーションを開発した。
論文 参考訳(メタデータ) (2020-09-25T18:36:27Z) - SAILenv: Learning in Virtual Visual Environments Made Simple [16.979621213790015]
仮想3Dシーンで視覚認識を実験できる新しいプラットフォームを提案する。
すべてのアルゴリズムを仮想世界とインターフェースするためには数行のコードが必要であり、非3Dグラフィックの専門家は容易に3D環境自体をカスタマイズできる。
我々のフレームワークはピクセルレベルのセマンティクスとインスタンスのラベル付け、深さ、そして私たちの知る限り、それは3Dエンジンから直接受け継がれるモーション関連情報を提供する唯一のものである。
論文 参考訳(メタデータ) (2020-07-16T09:50:23Z) - Stillleben: Realistic Scene Synthesis for Deep Learning in Robotics [33.30312206728974]
本稿では,シーン認識タスクの学習データを生成するための合成パイプラインについて述べる。
本手法は,物理シミュレーションを用いて,物体メッシュを物理的に現実的で密集したシーンに配置する。
私たちのパイプラインは、ディープニューラルネットワークのトレーニング中にオンラインで実行できます。
論文 参考訳(メタデータ) (2020-05-12T10:11:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。