論文の概要: AI Online Filters to Real World Image Recognition
- arxiv url: http://arxiv.org/abs/2002.08242v1
- Date: Tue, 11 Feb 2020 08:23:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-01-02 01:19:54.688810
- Title: AI Online Filters to Real World Image Recognition
- Title(参考訳): 実世界画像認識のためのaiオンラインフィルタ
- Authors: Hai Xiao, Jin Shang and Mengyuan Huang
- Abstract要約: 本研究では,画像認識反射モデルに強化制御を加え,全体的な性能を向上させるための新しい手法について検討する。
環境検知とAIに基づく自己適応エージェントのモデリングを併用した共通インフラストラクチャに従って、我々は複数のタイプのAI制御エージェントを実装している。
- 参考スコア(独自算出の注目度): 4.874719076317905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep artificial neural networks, trained with labeled data sets are widely
used in numerous vision and robotics applications today. In terms of AI, these
are called reflex models, referring to the fact that they do not self-evolve or
actively adapt to environmental changes. As demand for intelligent robot
control expands to many high level tasks, reinforcement learning and state
based models play an increasingly important role. Herein, in computer vision
and robotics domain, we study a novel approach to add reinforcement controls
onto the image recognition reflex models to attain better overall performance,
specifically to a wider environment range beyond what is expected of the task
reflex models. Follow a common infrastructure with environment sensing and AI
based modeling of self-adaptive agents, we implement multiple types of AI
control agents. To the end, we provide comparative results of these agents with
baseline, and an insightful analysis of their benefit to improve overall image
recognition performance in real world.
- Abstract(参考訳): ラベル付きデータセットでトレーニングされたディープニューラルネットワークは、現在多くのビジョンやロボティクスアプリケーションで広く使われている。
AIの観点では、これらは反射モデルと呼ばれ、自己進化や環境の変化に積極的に適応しないという事実に言及している。
インテリジェントロボット制御の需要が多くのハイレベルなタスクに拡大するにつれて、強化学習と状態ベースモデルがますます重要な役割を果たす。
本稿では,コンピュータビジョンとロボット工学の領域において,画像認識反射モデルに強化制御を加えることで,全体的な性能の向上,特にタスク反射モデルが期待する以上の広い環境範囲に到達させる手法について検討する。
環境センシングとaiに基づく自己適応エージェントのモデリングと共通のインフラストラクチャに従うことで、複数のタイプのai制御エージェントを実装する。
最後に,これらのエージェントをベースラインで比較した結果と,実世界の画像認識性能を向上する上でのメリットの洞察に富んだ分析を行った。
関連論文リスト
- Personalized Artificial General Intelligence (AGI) via Neuroscience-Inspired Continuous Learning Systems [3.764721243654025]
現在のアプローチは、タスク固有のパフォーマンスを改善するが、継続的で適応性があり、一般化された学習を可能にするには不十分なモデルパラメータの拡張に大きく依存している。
本稿では、連続学習と神経科学に触発されたAIの現状を概観し、脳のような学習機構をエッジ展開に統合したパーソナライズされたAGIのための新しいアーキテクチャを提案する。
これらの洞察に基づいて、我々は、相補的な高速かつスローな学習モジュール、シナプス的自己最適化、デバイス上の寿命適応をサポートするためのメモリ効率のモデル更新を特徴とするAIアーキテクチャの概要を述べる。
論文 参考訳(メタデータ) (2025-04-27T16:10:17Z) - Research and Design on Intelligent Recognition of Unordered Targets for Robots Based on Reinforcement Learning [6.3630131513288966]
本研究では,強化学習を用いたAIに基づく知的ロボットの標的認識手法を提案する。
強化されたターゲットイメージは、トレーニングのための深層強化学習モデルに入力され、最終的にはAIベースのインテリジェントロボットが、混乱したターゲットを効率的に認識できるようにする。
実験結果から,提案手法は目標画像の品質を向上するだけでなく,AIをベースとした知能ロボットが,高効率かつ精度で障害対象の認識タスクを完了できることが示唆された。
論文 参考訳(メタデータ) (2025-03-10T13:53:22Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
この研究は、長期水平予測、エラー蓄積、およびsim-to-real転送の課題に対処することで、モデルに基づく強化学習を前進させる。
スケーラブルでロバストなフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - GRAPPA: Generalizing and Adapting Robot Policies via Online Agentic Guidance [15.774237279917594]
本稿では,ロボットによる自己指導と自己改善のためのエージェントフレームワークを提案する。
本フレームワークは,環境中の関連オブジェクトに対して,ベースロボットポリシーを反復的に適用する。
弊社のアプローチは、操作ポリシーを効果的にガイドし、成功率を大幅に向上させることを実証する。
論文 参考訳(メタデータ) (2024-10-09T02:00:37Z) - A Survey on Vision-Language-Action Models for Embodied AI [71.16123093739932]
視覚言語アクションモデル(VLA)はロボット学習の基盤となっている。
汎用性、デキスタリティ、一般化可能性など、様々な手法が提案されている。
VLAは、長い水平タスクを実行可能なサブタスクに分解できるハイレベルなタスクプランナとして機能する。
論文 参考訳(メタデータ) (2024-05-23T01:43:54Z) - An Interactive Agent Foundation Model [49.77861810045509]
本稿では,AIエージェントを訓練するための新しいマルチタスクエージェントトレーニングパラダイムを用いた対話型エージェント基礎モデルを提案する。
トレーニングパラダイムは、視覚マスク付きオートエンコーダ、言語モデリング、次世代の予測など、多様な事前学習戦略を統一する。
私たちは、ロボティクス、ゲームAI、ヘルスケアという3つの異なる領域でフレームワークのパフォーマンスを実演します。
論文 参考訳(メタデータ) (2024-02-08T18:58:02Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Neural architecture impact on identifying temporally extended
Reinforcement Learning tasks [0.0]
Intention based architectures in reinforcement learning (RL) domain, which can be good performance on OpenAI Gym Atari-2600 game suite。
注意に基づくモデルでは、イメージへの注意マップの抽出とオーバーレイにより、エージェントがアクションを選択するために使用する情報の直接観察が可能になる。
さらに、視覚変換器を用いた注意に基づく映像分類モデルの開発により、画像ベースRLドメインにも視覚変換器をベースとしたアーキテクチャが考案された。
論文 参考訳(メタデータ) (2023-10-04T21:09:19Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - ArK: Augmented Reality with Knowledge Interactive Emergent Ability [115.72679420999535]
基礎モデルから新しいドメインへの知識記憶の伝達を学習する無限エージェントを開発する。
私たちのアプローチの核心は、Augmented Reality with Knowledge Inference Interaction (ArK)と呼ばれる新しいメカニズムである。
我々のArKアプローチは,大規模な基礎モデルと組み合わせることで,生成された2D/3Dシーンの品質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-05-01T17:57:01Z) - Masked World Models for Visual Control [90.13638482124567]
視覚表現学習と動的学習を分離する視覚モデルに基づくRLフレームワークを提案する。
提案手法は,様々な視覚ロボット作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-28T18:42:27Z) - Low Dimensional State Representation Learning with Robotics Priors in
Continuous Action Spaces [8.692025477306212]
強化学習アルゴリズムは、エンドツーエンドで複雑なロボティクスタスクを解くことができることが証明されている。
本稿では,ロボットの生の知覚情報から得られる高次元の観察から,低次元状態表現の学習と最適ポリシーの学習を組み合わせた枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-04T15:42:01Z) - The AI Arena: A Framework for Distributed Multi-Agent Reinforcement
Learning [0.3437656066916039]
分散マルチエージェント強化学習のための柔軟な抽象化を備えたスケーラブルなフレームワークであるAI Arenaを紹介します。
複数の異なる学習環境において、一般的なRL技術よりも分散マルチエージェント学習アプローチによる性能向上を示す。
論文 参考訳(メタデータ) (2021-03-09T22:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。