論文の概要: Coarse-to-fine Q-attention with Tree Expansion
- arxiv url: http://arxiv.org/abs/2204.12471v1
- Date: Tue, 26 Apr 2022 17:41:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:00:17.280728
- Title: Coarse-to-fine Q-attention with Tree Expansion
- Title(参考訳): 木の拡大に伴う粗大なQ-attention
- Authors: Stephen James and Pieter Abbeel
- Abstract要約: 粗いQ-アテンションは、粗いQ-アテンションで翻訳空間を識別し、サンプル効率の良いロボット操作を可能にする。
Q-アテンションは「粗い曖昧さ」に悩まされる - ボキセル化が著しく粗い場合、より微細な解像度で最初に調べることなく類似した物体を区別することは不可能である。
そこで本論文では,Q-アテンションを木として,各Q-アテンション深さにおけるトップkボクセルの値推定値の蓄積に利用することを提案する。
- 参考スコア(独自算出の注目度): 95.00518278458908
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Coarse-to-fine Q-attention enables sample-efficient robot manipulation by
discretizing the translation space in a coarse-to-fine manner, where the
resolution gradually increases at each layer in the hierarchy. Although
effective, Q-attention suffers from "coarse ambiguity" - when voxelization is
significantly coarse, it is not feasible to distinguish similar-looking objects
without first inspecting at a finer resolution. To combat this, we propose to
envision Q-attention as a tree that can be expanded and used to accumulate
value estimates across the top-k voxels at each Q-attention depth. When our
extension, Q-attention with Tree Expansion (QTE), replaces standard Q-attention
in the Attention-driven Robot Manipulation (ARM) system, we are able to
accomplish a larger set of tasks; especially on those that suffer from "coarse
ambiguity". In addition to evaluating our approach across 12 RLBench tasks, we
also show that the improved performance is visible in a real-world task
involving small objects.
- Abstract(参考訳): 粗大なQ-アテンションは、各階層の分解能が徐々に増大する粗大な方法で翻訳空間を識別することにより、サンプリング効率の良いロボット操作を可能にする。
有効ではあるが、q-アテンションは「曖昧さ」に苦しむ - ボクセル化が著しく粗い場合、より細かい解像度で最初に検査することなく類似した物体を区別することは不可能である。
そこで本研究では,q-attentionを拡張可能で,q-attention深度毎にトップkボクセルの値推定値を蓄積できる木として想定する。
我々の拡張であるQ-attention with Tree Expansion (QTE)は、Attention-driven Robot Manipulation (ARM)システムにおける標準的なQ-attentionに取って代わるものである。
12のrlbenchタスクに対するアプローチの評価に加えて、小さなオブジェクトを含む現実世界のタスクでパフォーマンスが向上していることも示しています。
関連論文リスト
- Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - Top-Down Visual Attention from Analysis by Synthesis [87.47527557366593]
我々は、古典的分析・合成(AbS)の視覚的視点からトップダウンの注意を考察する。
本稿では,AbSを変動的に近似したトップダウン変調ViTモデルであるAbSViT(Analytic-by-Synthesis Vision Transformer)を提案する。
論文 参考訳(メタデータ) (2023-03-23T05:17:05Z) - From Pixels to Objects: Cubic Visual Attention for Visual Question
Answering [132.95819467484517]
近年,注目度に基づく視覚質問応答 (VQA) は,質問を利用して回答に関連する異なる視覚領域をターゲットにすることで大きな成功を収めている。
本稿では、VQAタスクを改善するために、新しいチャネルと空間的注意をオブジェクト領域に適用し、キュービック視覚注意(CVA)モデルを提案する。
実験の結果,提案手法は最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-06-04T07:03:18Z) - HAN: Higher-order Attention Network for Spoken Language Understanding [31.326152465734747]
本稿では,従来の注目ブロックをバイリニアアテンションブロックに置き換えることを提案する。
我々は,高次の注目から得られる有効性を探るため,幅広い分析を行う。
論文 参考訳(メタデータ) (2021-08-26T17:13:08Z) - Efficient measure for the expressivity of variational quantum algorithms [72.59790225766777]
我々は、変分量子アルゴリズムの表現率を研究するために、統計学習理論、すなわち被覆数に関する高度なツールを利用する。
まず、任意のアンサーゼを持つVQAの表現性は、量子ゲートの数と観測可能な測定値によって上限づけられていることを示す。
次に,システムノイズを考慮した量子チップ上でのVQAの表現性について検討する。
論文 参考訳(メタデータ) (2021-04-20T13:51:08Z) - Capturing Multi-Resolution Context by Dilated Self-Attention [58.69803243323346]
限定的自己意識と拡張メカニズムの組み合わせを提案し,これを拡張的自己意識と呼ぶ。
制限された自己注意は、高分解能でクエリの隣接するフレームに注意を払い、拡張メカニズムは、より低い解像度でそれに出席できるように遠方の情報を要約します。
ASRの結果は、制限された自己アテンションのみと比較して大幅に改善され、計算コストのごく一部をフルシーケンスベースの自己アテンションと比較すると、同様の結果が得られる。
論文 参考訳(メタデータ) (2021-04-07T02:04:18Z) - Attention or memory? Neurointerpretable agents in space and time [0.0]
本研究では,意味的特徴空間にタスク状態表現を実装する自己認識機構を組み込んだモデルの設計を行う。
エージェントの選択的特性を評価するために,多数のタスク非関連特徴を観察に付加する。
神経科学の予測に従って、自己注意は、ベンチマークモデルと比較してノイズに対する堅牢性を高める。
論文 参考訳(メタデータ) (2020-07-09T15:04:26Z) - Neuroevolution of Self-Interpretable Agents [11.171154483167514]
不注意の盲目は、普通の視界で物事を見逃す心理的現象である。
選択的な注意を払って,自己注意ボトルネックのレンズを通して世界を知覚する人工エージェントの特性について検討した。
論文 参考訳(メタデータ) (2020-03-18T11:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。