論文の概要: Learning First-Order Symbolic Planning Representations That Are Grounded
- arxiv url: http://arxiv.org/abs/2204.11902v1
- Date: Mon, 25 Apr 2022 18:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 05:05:26.961116
- Title: Learning First-Order Symbolic Planning Representations That Are Grounded
- Title(参考訳): 接地した一階記号的計画表現の学習
- Authors: Andr\'es Occhipinti Liberman, Hector Geffner, Blai Bonet
- Abstract要約: 構造化されていないデータから一階計画(アクション)モデルを学習するための2つの主要なアプローチが開発されている。
そこで我々は,解析画像に基づく一階計画モデルのクリップ学習のための新しい定式化を開発した。
学習と計画の実験は、Blocks、Sokoban、IPC Grid、ハノイなどいくつかのドメインで報告されている。
- 参考スコア(独自算出の注目度): 20.322992960599255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Two main approaches have been developed for learning first-order planning
(action) models from unstructured data: combinatorial approaches that yield
crisp action schemas from the structure of the state space, and deep learning
approaches that produce action schemas from states represented by images. A
benefit of the former approach is that the learned action schemas are similar
to those that can be written by hand; a benefit of the latter is that the
learned representations (predicates) are grounded on the images, and as a
result, new instances can be given in terms of images. In this work, we develop
a new formulation for learning crisp first-order planning models that are
grounded on parsed images, a step to combine the benefits of the two
approaches. Parsed images are assumed to be given in a simple O2D language
(objects in 2D) that involves a small number of unary and binary predicates
like "left", "above", "shape", etc. After learning, new planning instances can
be given in terms of pairs of parsed images, one for the initial situation and
the other for the goal. Learning and planning experiments are reported for
several domains including Blocks, Sokoban, IPC Grid, and Hanoi.
- Abstract(参考訳): 非構造化データから一階計画(アクション)モデルを学習するための2つの主要なアプローチが開発され、状態空間の構造からクリップなアクションスキーマを生成する組合せアプローチと、画像で表される状態からアクションスキーマを生成するディープラーニングアプローチである。
前者のアプローチの利点は、学習されたアクションスキーマが手書きのスキーマに似ていることである。後者の利点は、学習された表現(述語)が画像に基づいており、結果として、画像の観点で新しいインスタンスを与えることができることである。
本研究では,解析画像に基づく一階計画モデルの学習のための新しい定式化を開発し,この2つのアプローチの利点を組み合わせた。
パースされた画像は、単純なO2D言語(オブジェクトは2D)で与えられると仮定され、それは、"left"、"above"、"shape"など、少数の単項述語とバイナリ述語を含む。
学習後、新しいプランニングインスタンスはパースされたイメージのペア、初期状況の1つ、目標の1つで与えられる。
学習と計画の実験はblocks、sokoban、ipc grid、hanoiなどいくつかのドメインで報告されている。
関連論文リスト
- Compositional Entailment Learning for Hyperbolic Vision-Language Models [54.41927525264365]
画像とテキストのペアを超えて、双曲的埋め込みの自然的階層性を完全に活用する方法を示す。
双曲型視覚言語モデルのための構成的包摂学習を提案する。
数百万の画像テキストペアで訓練された双曲型視覚言語モデルに対する経験的評価は、提案手法が従来のユークリッドCLIP学習より優れていることを示している。
論文 参考訳(メタデータ) (2024-10-09T14:12:50Z) - SSIG: A Visually-Guided Graph Edit Distance for Floor Plan Similarity [11.09257948735229]
建築フロアプランの視覚的事例間の構造的類似度を測定するための簡易で効果的な尺度を提案する。
本稿では,S SIGと呼ばれる床図の構造的類似性を評価するための有効評価指標を提案する。
論文 参考訳(メタデータ) (2023-09-08T14:28:28Z) - Graph schemas as abstractions for transfer learning, inference, and
planning [5.565347203528707]
本稿では,伝達学習の抽象化機構としてグラフスキーマを提案する。
海馬の新しい計算モデルとして潜在グラフ学習が登場している。
学習した潜在グラフを事前の知識として扱うことで、新しい環境を素早く学習することができる。
論文 参考訳(メタデータ) (2023-02-14T21:23:22Z) - Classical Planning in Deep Latent Space [33.06766829037679]
Latplanは、ディープラーニングと古典的計画を組み合わせた教師なしアーキテクチャである。
ラトプランは、象徴的な潜在空間における目標状態への計画を見つけ、視覚化された計画実行を返します。
論文 参考訳(メタデータ) (2021-06-30T21:31:21Z) - Towards Open-World Text-Guided Face Image Generation and Manipulation [52.83401421019309]
顔画像生成と操作の両方に統一的なフレームワークを提案する。
本手法は,画像とテキストの両方を含むオープンワールドシナリオをサポートし,再トレーニングや微調整,後処理は行わない。
論文 参考訳(メタデータ) (2021-04-18T16:56:07Z) - Knowledge driven Description Synthesis for Floor Plan Interpretation [3.265773263570237]
本稿では、画像キュー(DSIC)からの記述合成と変換器ベース記述生成(TBDG)の2つのモデルを提案する。
両方のモデルの違いは、フロアプランの画像から入力する方法にあります。
大規模データセット上で実験を行い,提案モデルの優越性を示すための最先端技術と比較した。
論文 参考訳(メタデータ) (2021-03-15T11:57:18Z) - L2C: Describing Visual Differences Needs Semantic Understanding of
Individuals [65.87728481187625]
本稿では,2つの画像の意味構造を学習し,それぞれを学習しながら比較するラーニング・トゥ・コンペア・モデルを提案する。
我々は,L2Cが明示的な意味表現と単一イメージのキャプションの比較から得られる利点を実証し,新しいテスト画像対をよりよく一般化することを示した。
論文 参考訳(メタデータ) (2021-02-03T03:44:42Z) - Structural-analogy from a Single Image Pair [118.61885732829117]
本稿では,1対の画像A,Bのみを用いて,ニューラルネットワークによる画像構造理解能力について検討する。
我々は、B の外観とスタイルを保持するが、A に対応する構造的配置を持つ画像を生成する。
提案手法は,画像AとBのみを利用した条件生成タスクにおいて,高品質な画像を生成するために利用できる。
論文 参考訳(メタデータ) (2020-04-05T14:51:10Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - Hallucinative Topological Memory for Zero-Shot Visual Planning [86.20780756832502]
視覚計画(VP)では、エージェントは、オフラインで取得した動的システムの観察から目標指向の振る舞いを計画することを学ぶ。
以前のVPに関するほとんどの研究は、学習された潜在空間で計画することでこの問題にアプローチし、結果として品質の低い視覚計画を生み出した。
本稿では,画像空間を直接計画し,競合性能を示すシンプルなVP手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T18:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。