論文の概要: SceneScore: Learning a Cost Function for Object Arrangement
- arxiv url: http://arxiv.org/abs/2311.08530v1
- Date: Tue, 14 Nov 2023 20:55:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 18:16:18.409788
- Title: SceneScore: Learning a Cost Function for Object Arrangement
- Title(参考訳): scenescore: オブジェクトアレンジメントのためのコスト関数の学習
- Authors: Ivan Kapelyukh, Edward Johns
- Abstract要約: 「SceneScore」は、望ましい人間的なアレンジメントが低コストであるようなアレンジメントのコスト関数を学習する。
我々は,実例画像のみから,エネルギーモデルを用いてオフラインでトレーニングアレンジメントの分布を学習する。
実験により、学習したコスト関数は、欠落したオブジェクトのポーズを予測したり、セマンティックな特徴を使って新しいオブジェクトに一般化したり、推論時に制約を満たすために他のコスト関数で構成できることを示した。
- 参考スコア(独自算出の注目度): 15.215659641228655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Arranging objects correctly is a key capability for robots which unlocks a
wide range of useful tasks. A prerequisite for creating successful arrangements
is the ability to evaluate the desirability of a given arrangement. Our method
"SceneScore" learns a cost function for arrangements, such that desirable,
human-like arrangements have a low cost. We learn the distribution of training
arrangements offline using an energy-based model, solely from example images
without requiring environment interaction or human supervision. Our model is
represented by a graph neural network which learns object-object relations,
using graphs constructed from images. Experiments demonstrate that the learned
cost function can be used to predict poses for missing objects, generalise to
novel objects using semantic features, and can be composed with other cost
functions to satisfy constraints at inference time.
- Abstract(参考訳): オブジェクトを正しく配置することは、幅広い有用なタスクをアンロックするロボットにとって重要な機能である。
成功したアレンジメントを作成するための前提条件は、与えられたアレンジメントの望ましさを評価する能力である。
提案手法「SceneScore」は,望ましい人型アレンジメントが低コストであるようなアレンジメントのコスト関数を学習する。
我々は,環境相互作用や人的監督を必要とせず,実例画像のみから,エネルギーモデルを用いてオフラインでトレーニングアレンジメントの分布を学習する。
本モデルは,画像から構築したグラフを用いて,対象と対象の関係を学習するグラフニューラルネットワークによって表現される。
実験により、学習したコスト関数は、欠落したオブジェクトのポーズを予測したり、セマンティックな特徴を使って新しいオブジェクトに一般化したり、推論時に制約を満たすために他のコスト関数で構成できることを示した。
関連論文リスト
- ShapeGrasp: Zero-Shot Task-Oriented Grasping with Large Language Models through Geometric Decomposition [8.654140442734354]
不慣れな物体のタスク指向の把握は、動的家庭環境におけるロボットにとって必要なスキルである。
本稿では,対象物体の幾何学的分解を簡単な凸形状に生かしたゼロショットタスク指向の把握手法を提案する。
このアプローチでは、ゼロショットタスク指向の把握を容易にするために、最小限の必須情報(オブジェクト名と意図したタスク)を使用します。
論文 参考訳(メタデータ) (2024-03-26T19:26:53Z) - One-Shot Open Affordance Learning with Foundation Models [54.15857111929812]
私たちは、モデルがベースオブジェクトカテゴリ毎に1つの例でトレーニングされる、ワンショットのオープンアフォーダンスラーニング(OOAL)を紹介します。
本稿では,視覚的特徴と手頃なテキスト埋め込みとの整合性を高める,シンプルで効果的な設計の視覚言語フレームワークを提案する。
2つのアベイランスセグメンテーションのベンチマーク実験により、提案手法はトレーニングデータの1%未満で最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-11-29T16:23:06Z) - Multi-Object Graph Affordance Network: Goal-Oriented Planning through Learned Compound Object Affordances [1.9336815376402723]
Multi-Object Graph Affordance Networkは、オブジェクトと化合物の相互作用を促進するロボットアクションの結果を学ぶことによって、複雑な複合オブジェクトの余裕をモデル化する。
シミュレーションと実環境の両方において,コンケーブ・コンベックス・オブジェクトを含む複合オブジェクトの可利用性をモデル化した。
論文 参考訳(メタデータ) (2023-09-19T08:40:46Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - PartAfford: Part-level Affordance Discovery from 3D Objects [113.91774531972855]
パートレベルの空き地探索(PartAfford)の課題について紹介する。
対象物当たりの空きラベルのみを考慮し、(i)3D形状を部品に分解し、(ii)各部品が特定の空きカテゴリに対応する方法を検出する。
本稿では,パーセンテージ・セットの監督と幾何学的原始正規化のみを活用することで,パートレベルの表現を発見する新しい学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-28T02:58:36Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Self-Supervision by Prediction for Object Discovery in Videos [62.87145010885044]
本稿では,この予測タスクを自己監督として利用し,画像シーケンス表現のための新しいオブジェクト中心モデルを構築する。
私たちのフレームワークは、手動アノテーションや事前トレーニングされたネットワークを使わずにトレーニングできます。
最初の実験では、提案されたパイプラインがオブジェクト中心のビデオ予測への有望なステップであることを確認した。
論文 参考訳(メタデータ) (2021-03-09T19:14:33Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Relational Learning for Skill Preconditions [15.427056235112152]
制約のない環境での操作スキルの事前条件モデルを学習することに注力する。
我々の研究は、複数のオブジェクトを持つ複雑な操作タスクが、より複雑なペアワイドなオブジェクト関係に焦点を合わせることで、単純化できるという直感に動機付けられている。
提案手法は, 形状や大きさの異なる対象に対して, 3つのタスクの事前条件を予測する上で, 大幅な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2020-12-03T04:13:49Z) - Tell me what this is: Few-Shot Incremental Object Learning by a Robot [22.387008072671005]
本稿では,ロボットが異なる対象カテゴリを認識できるように,段階的に学習するシステムを提案する。
論文は、最近開発された最先端の手法を用いて、オブジェクトを数発インクリメンタルに学習する。
論文 参考訳(メタデータ) (2020-07-15T04:42:14Z) - Learning Object Placements For Relational Instructions by Hallucinating
Scene Representations [26.897316325189205]
単一入力画像から空間関係の集合に対する画素単位の物体配置確率を推定するための畳み込みニューラルネットワークを提案する。
本手法では,オブジェクトの画素関係確率や3次元モデルに対して,地上の真理データを必要としない。
実世界のデータと人間ロボット実験を用いて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-01-23T12:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。