論文の概要: Transform2Act: Learning a Transform-and-Control Policy for Efficient
Agent Design
- arxiv url: http://arxiv.org/abs/2110.03659v1
- Date: Thu, 7 Oct 2021 17:51:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 16:11:35.770498
- Title: Transform2Act: Learning a Transform-and-Control Policy for Efficient
Agent Design
- Title(参考訳): Transform2Act:効率的なエージェント設計のためのTransform-and-Control Policyの学習
- Authors: Ye Yuan, Yuda Song, Zhengyi Luo, Wen Sun, Kris Kitani
- Abstract要約: エージェントの機能は、その設計、すなわち骨格構造と関節特性によって決定される。
与えられた関数に対する最適なエージェント設計を見つけることは、本質的に問題であり、設計空間が禁断に大きいため、非常に難しい。
これらの問題に対処するため、我々はエージェントの設計手順を意思決定プロセスに組み込むことを目標としています。
- 参考スコア(独自算出の注目度): 31.33251581287337
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An agent's functionality is largely determined by its design, i.e., skeletal
structure and joint attributes (e.g., length, size, strength). However, finding
the optimal agent design for a given function is extremely challenging since
the problem is inherently combinatorial and the design space is prohibitively
large. Additionally, it can be costly to evaluate each candidate design which
requires solving for its optimal controller. To tackle these problems, our key
idea is to incorporate the design procedure of an agent into its
decision-making process. Specifically, we learn a conditional policy that, in
an episode, first applies a sequence of transform actions to modify an agent's
skeletal structure and joint attributes, and then applies control actions under
the new design. To handle a variable number of joints across designs, we use a
graph-based policy where each graph node represents a joint and uses message
passing with its neighbors to output joint-specific actions. Using policy
gradient methods, our approach enables first-order optimization of agent design
and control as well as experience sharing across different designs, which
improves sample efficiency tremendously. Experiments show that our approach,
Transform2Act, outperforms prior methods significantly in terms of convergence
speed and final performance. Notably, Transform2Act can automatically discover
plausible designs similar to giraffes, squids, and spiders. Our project website
is at https://sites.google.com/view/transform2act.
- Abstract(参考訳): エージェントの機能は、その設計、すなわち骨格構造と関節特性(例えば、長さ、大きさ、強度)によって決定される。
しかし, 与えられた関数に対する最適エージェント設計の発見は, 本質的には組合せ的であり, 設計空間は禁断的に大きいため, 極めて困難である。
さらに、最適なコントローラの解決を必要とする各候補設計を評価するのにコストがかかる。
これらの問題に取り組むためには,エージェントの設計手順を意思決定プロセスに組み込むことが重要となる。
具体的には,あるエピソードにおいて,まず,エージェントの骨格構造と関節属性を修飾するために一連の変換アクションを適用し,その後に新たな設計の下で制御アクションを適用する条件付きポリシーを学習する。
各グラフノードがジョイントを表現し、隣接ノードとのメッセージパッシングを使用してジョイント特有のアクションを出力するグラフベースのポリシを使用する。
政策勾配法を用いてエージェント設計と制御の1次最適化と異なる設計間の経験共有を実現し,サンプル効率を大幅に向上する。
実験により,我々の手法であるTransform2Actは,収束速度と最終性能の点で先行手法よりも優れていた。
Transform2Actはキリン、イカ、クモに似た可塑性デザインを自動的に発見する。
私たちのプロジェクトwebサイトはhttps://sites.google.com/view/transform2actにあります。
関連論文リスト
- PRANCE: Joint Token-Optimization and Structural Channel-Pruning for Adaptive ViT Inference [44.77064952091458]
PRANCEはVision Transformer圧縮フレームワークで、アクティベートされたチャネルを共同で最適化し、入力の特性に基づいてトークンを削減する。
本稿では,ViTの推論過程を逐次決定プロセスとしてモデル化する,新しい「結果と結果」学習機構を提案する。
我々のフレームワークは、プルーニング、マージング、プルーニングマージングといった様々なトークン最適化手法と互換性があることが示されている。
論文 参考訳(メタデータ) (2024-07-06T09:04:27Z) - EulerFormer: Sequential User Behavior Modeling with Complex Vector Attention [88.45459681677369]
複素ベクトル注意を持つ新しい変圧器変圧器(EulerFormer)を提案する。
意味的差と位置的差の両方を定式化するための統一的な理論的枠組みを提供する。
意味的変動に対してより堅牢であり、原理上はより上述の理論的性質を持つ。
論文 参考訳(メタデータ) (2024-03-26T14:18:43Z) - Compositional Generative Inverse Design [69.22782875567547]
入力変数を設計して目的関数を最適化する逆設計は重要な問題である。
拡散モデルにより得られた学習エネルギー関数を最適化することにより、そのような逆例を避けることができることを示す。
N-body 相互作用タスクと2次元多面体設計タスクにおいて,実験時に学習した拡散モデルを構成することにより,初期状態と境界形状を設計できることを示す。
論文 参考訳(メタデータ) (2024-01-24T01:33:39Z) - SGTR+: End-to-end Scene Graph Generation with Transformer [42.396971149458324]
シーングラフ生成(SGG)は、その構成特性のため、困難な視覚的理解課題である。
これまでのほとんどの作業ではボトムアップ、2段階またはポイントベースの1段階のアプローチを採用していた。
本稿では、上記の問題に対処する新しいSGG法を提案し、そのタスクを二部グラフ構築問題として定式化する。
論文 参考訳(メタデータ) (2024-01-23T15:18:20Z) - ECoDe: A Sample-Efficient Method for Co-Design of Robotic Agents [11.449817465618658]
自律ロボットエージェントを共同設計するには、エージェントのコントローラと物理的設計を同時に最適化する必要がある。
デザインスペースが大きくなると、これは難しくなります。
共設計のサンプル効率を向上させるための多要素探索手法を提案する。
論文 参考訳(メタデータ) (2023-09-08T02:54:31Z) - Efficient Automatic Machine Learning via Design Graphs [72.85976749396745]
最適なモデル設計を探索する効率的なサンプルベース手法であるFALCONを提案する。
FALCONは,1)グラフニューラルネットワーク(GNN)を介してデザイングラフ上でメッセージパッシングを行うタスク非依存モジュール,2)既知のモデル性能情報のラベル伝搬を行うタスク固有モジュールを特徴とする。
FALCONは,30個の探索ノードのみを用いて,各タスクに対して良好な性能を持つ設計を効率的に得ることを実証的に示す。
論文 参考訳(メタデータ) (2022-10-21T21:25:59Z) - Meta Reinforcement Learning for Optimal Design of Legged Robots [9.054187238463212]
モデルなしメタ強化学習を用いた設計最適化フレームワークを提案する。
提案手法は,事前定義された動作や歩行パターンに制約されずに,より高い性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-10-06T08:37:52Z) - An End-to-End Differentiable Framework for Contact-Aware Robot Design [37.715596272425316]
我々は、接触認識ロボット設計のためのエンドツーエンドの差別化可能なフレームワークを構築した。
変形に基づく新しいパラメータ化により、任意の複雑な幾何学を持つ剛体ロボットを設計することができる。
微分可能な剛体シミュレータは、接触豊富なシナリオを処理し、運動パラメータと動的パラメータの完全なスペクトルに対する解析的勾配を計算することができる。
論文 参考訳(メタデータ) (2021-07-15T17:53:44Z) - Analogous to Evolutionary Algorithm: Designing a Unified Sequence Model [58.17021225930069]
実演的進化アルゴリズム(EA)と類似した視覚変換器の合理性について説明する。
我々は、より効率的なEATモデルを提案し、様々なタスクに柔軟に対処するタスク関連ヘッドを設計する。
近年のビジョントランスに比べて,イメージネット分類作業における最先端の成果が得られている。
論文 参考訳(メタデータ) (2021-05-31T16:20:03Z) - A Flexible Framework for Designing Trainable Priors with Adaptive
Smoothing and Game Encoding [57.1077544780653]
我々は、前方通過を非滑らかな凸最適化問題として解釈できるニューラルネットワーク層の設計とトレーニングのための一般的なフレームワークを紹介する。
グラフのノードに代表されるローカルエージェントによって解決され、正規化関数を介して相互作用する凸ゲームに焦点を当てる。
このアプローチは、訓練可能なエンドツーエンドのディープモデル内で、古典的な画像の事前使用を可能にするため、画像の問題を解決するために魅力的である。
論文 参考訳(メタデータ) (2020-06-26T08:34:54Z) - Joint Multi-Dimension Pruning via Numerical Gradient Update [120.59697866489668]
本稿では,空間,深さ,チャネルの3つの重要な側面において,ネットワークを同時に切断する方法であるジョイント・マルチディメンジョン・プルーニング(ジョイント・プルーニング)を提案する。
本手法は,1つのエンドツーエンドトレーニングにおいて3次元にわたって協調的に最適化され,従来よりも効率がよいことを示す。
論文 参考訳(メタデータ) (2020-05-18T17:57:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。