論文の概要: A3RNN: Bi-directional Fusion of Bottom-up and Top-down Process for Developmental Visual Attention in Robots
- arxiv url: http://arxiv.org/abs/2510.10221v1
- Date: Sat, 11 Oct 2025 13:58:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 20:23:38.930257
- Title: A3RNN: Bi-directional Fusion of Bottom-up and Top-down Process for Developmental Visual Attention in Robots
- Title(参考訳): A3RNN:ロボットの視覚発達のためのボトムアップとトップダウンの双方向融合
- Authors: Hyogo Hiruma, Hiroshi Ito, Hiroki Mori, Tetsuya Ogata,
- Abstract要約: 本研究では,ロボット学習におけるトップダウン(TD)とボトムアップ(BU)の発達的相互作用について検討した。
本稿では,2方向のアテンションアーキテクチャを用いて,予測的TD信号とサリエンシに基づくBUキューを統合する新しいアテンションモデルである$A3 RNN$を提案する。
実験の結果, 注意行動は, 順応探索から予測方向まで, 訓練を通して進化することが示された。
- 参考スコア(独自算出の注目度): 8.324441730804812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study investigates the developmental interaction between top-down (TD) and bottom-up (BU) visual attention in robotic learning. Our goal is to understand how structured, human-like attentional behavior emerges through the mutual adaptation of TD and BU mechanisms over time. To this end, we propose a novel attention model $A^3 RNN$ that integrates predictive TD signals and saliency-based BU cues through a bi-directional attention architecture. We evaluate our model in robotic manipulation tasks using imitation learning. Experimental results show that attention behaviors evolve throughout training, from saliency-driven exploration to prediction-driven direction. Initially, BU attention highlights visually salient regions, which guide TD processes, while as learning progresses, TD attention stabilizes and begins to reshape what is perceived as salient. This trajectory reflects principles from cognitive science and the free-energy framework, suggesting the importance of self-organizing attention through interaction between perception and internal prediction. Although not explicitly optimized for stability, our model exhibits more coherent and interpretable attention patterns than baselines, supporting the idea that developmental mechanisms contribute to robust attention formation.
- Abstract(参考訳): 本研究では,ロボット学習におけるトップダウン(TD)とボトムアップ(BU)の発達的相互作用について検討した。
我々のゴールは、時間とともにTDとBUのメカニズムを相互に適応することで、人間のような構造化された注意行動がどのように現れるかを理解することである。
そこで本研究では,2方向のアテンションアーキテクチャを用いて,予測的TD信号とサリエンシに基づくBUキューを統合した新しいアテンションモデルである$A^3 RNN$を提案する。
模倣学習を用いたロボット操作タスクにおけるモデルの評価を行った。
実験の結果, 注意行動は, 順応探索から予測方向まで, 訓練を通して進化することが示された。
当初、BUアテンションは視覚的に有能な領域を強調しており、TDプロセスを導く一方で、学習が進むにつれてTDアテンションは安定し、正気と見なされる領域を再形成し始める。
この軌道は認知科学と自由エネルギーの枠組みの原理を反映しており、知覚と内的予測の相互作用を通じて自己組織的注意が重要であることを示唆している。
安定性に明示的に最適化されていないが,本モデルはベースラインよりもコヒーレントで解釈可能な注意パターンを示し,発達メカニズムがロバストな注意形成に寄与するという考えを支持する。
関連論文リスト
- Attention Schema-based Attention Control (ASAC): A Cognitive-Inspired Approach for Attention Management in Transformers [6.853513140582486]
本稿では、アテンションスキーマの概念を人工ニューラルネットワークに統合したASAC(Attention-based Attention Control)を紹介する。
本手法は,アテンションアロケーションを明示的にモデル化することにより,システム効率を向上させることを目的としている。
視覚領域とNLP領域の両方においてASACの有効性を実証し、分類精度を改善し、学習プロセスを高速化する能力を強調した。
論文 参考訳(メタデータ) (2025-09-19T15:08:30Z) - Mitigating Attention Hacking in Preference-Based Reward Modeling via Interaction Distillation [62.14692332209628]
インタラクション蒸留(Interaction Distillation)は、注意レベル最適化によるより適切な嗜好モデリングのための新しいトレーニングフレームワークである。
最先端のRM最適化法と比較して、より安定で一般化可能な報酬信号を提供する。
論文 参考訳(メタデータ) (2025-08-04T17:06:23Z) - Interpretable Learning Dynamics in Unsupervised Reinforcement Learning [0.10832949790701804]
本稿では,教師なし強化学習(URL)エージェントの解釈可能性フレームワークを提案する。
DQN,RND,ICM,PPO,Transformer-RNDの5種類のエージェントを手続き的に生成する環境下で訓練した。
論文 参考訳(メタデータ) (2025-05-06T19:57:09Z) - Siamese Network with Dual Attention for EEG-Driven Social Learning: Bridging the Human-Robot Gap in Long-Tail Autonomous Driving [0.0]
本研究では脳波信号の分類を行う脳-コンピュータインタフェース(BCI)フレームワークを提案する。
タイムリーかつモチベーションの高いコロボティックエンジニアリングアプリケーションとして、準自律ロボット運転における危険事象を警告するために、人間とループのシナリオをシミュレートする。
本稿では,脳波を符号化した信号表現を生成するために,ダイナミック・タイム・ワーピング・バリーセンタ平均化手法と組み合わせた二重アテンション・シームズ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2025-04-14T15:06:17Z) - Learning from Observer Gaze:Zero-Shot Attention Prediction Oriented by Human-Object Interaction Recognition [13.956664101032006]
まず,740種類の相互作用カテゴリの530,000個の固定点を含む,IGという新しい視線固定データセットを収集した。
次に、ゼロショットインタラクション指向の注意予測タスクZeroIAを紹介し、トレーニング中に遭遇しないインタラクションに対する視覚的手がかりを予測するモデルに挑戦する。
第3に、人間観測者の認知過程をエミュレートしてZeroIA問題に取り組むための対話型注意モデルIAを提案する。
論文 参考訳(メタデータ) (2024-05-16T09:34:57Z) - From Cognition to Computation: A Comparative Review of Human Attention and Transformer Architectures [1.5266118210763295]
トランスフォーマーアーキテクチャのような人工知能の最近の発展は、モデル設計における注意の考え方を取り入れている。
本研究の目的は,認知機能の観点から,これらのメカニズムの比較分析を行うことである。
論文 参考訳(メタデータ) (2024-04-25T05:13:38Z) - Top-Down Visual Attention from Analysis by Synthesis [87.47527557366593]
我々は、古典的分析・合成(AbS)の視覚的視点からトップダウンの注意を考察する。
本稿では,AbSを変動的に近似したトップダウン変調ViTモデルであるAbSViT(Analytic-by-Synthesis Vision Transformer)を提案する。
論文 参考訳(メタデータ) (2023-03-23T05:17:05Z) - BI AVAN: Brain inspired Adversarial Visual Attention Network [67.05560966998559]
機能的脳活動から直接人間の視覚的注意を特徴付ける脳誘発対人視覚注意ネットワーク(BI-AVAN)を提案する。
本モデルは,人間の脳が監督されていない方法で焦点を絞った映画フレーム内の視覚的物体を識別・発見するために,注意関連・無視対象間の偏りのある競合過程を模倣する。
論文 参考訳(メタデータ) (2022-10-27T22:20:36Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - Deep Reinforced Attention Learning for Quality-Aware Visual Recognition [73.15276998621582]
我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
論文 参考訳(メタデータ) (2020-07-13T02:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。