論文の概要: Learning task-agnostic representation via toddler-inspired learning
- arxiv url: http://arxiv.org/abs/2101.11221v1
- Date: Wed, 27 Jan 2021 06:26:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-02-01 19:47:29.405574
- Title: Learning task-agnostic representation via toddler-inspired learning
- Title(参考訳): 幼児期学習によるタスク非依存表現の学習
- Authors: Kwanyoung Park, Junseok Park, Hyunseok Oh, Byoung-Tak Zhang, Youngki
Lee
- Abstract要約: 我々は,幼児の行動を通じて,高度に意図的な学習システムからインスピレーションを得た。
幼児の学習手順に触発されて,タスクに依存しない視覚表現を学習し,記憶できる対話型エージェントを設計する。
実験の結果,これらの表現は様々な視覚タスクに拡張可能であることがわかった。
- 参考スコア(独自算出の注目度): 19.478820330574628
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One of the inherent limitations of current AI systems, stemming from the
passive learning mechanisms (e.g., supervised learning), is that they perform
well on labeled datasets but cannot deduce knowledge on their own. To tackle
this problem, we derive inspiration from a highly intentional learning system
via action: the toddler. Inspired by the toddler's learning procedure, we
design an interactive agent that can learn and store task-agnostic visual
representation while exploring and interacting with objects in the virtual
environment. Experimental results show that such obtained representation was
expandable to various vision tasks such as image classification, object
localization, and distance estimation tasks. In specific, the proposed model
achieved 100%, 75.1% accuracy and 1.62% relative error, respectively, which is
noticeably better than autoencoder-based model (99.7%, 66.1%, 1.95%), and also
comparable with those of supervised models (100%, 87.3%, 0.71%).
- Abstract(参考訳): 現在のAIシステムの本質的な制限の1つは、受動的学習機構(例えば教師付き学習)に由来するもので、ラベル付きデータセットでうまく機能するが、自分自身で知識を引き出すことはできない。
この問題に取り組むため,我々は,アクションによる高度に意図的な学習システムからインスピレーションを得た。
幼児の学習過程にインスパイアされた対話型エージェントを設計し,仮想環境内の物体を探索・操作しながらタスクに依存しない視覚表現を学習・記憶する。
実験の結果,これらの表現は画像分類,物体の局所化,距離推定といった様々な視覚タスクに拡張可能であることがわかった。
具体的には、提案されたモデルは100%、75.1%の精度と1.62%の相対誤差を達成し、これはオートエンコーダベースのモデル(99.7%、66.1%、1.595%)よりも顕著に優れている。
関連論文リスト
- Active Zero: Self-Evolving Vision-Language Models through Active Environment Exploration [72.84714132070404]
受動的相互作用から視覚環境の能動的探索に移行する枠組みを提案する。
Active-Zeroでは,3つの共進化エージェントが採用されている。 モデルの機能フロンティアに基づいて,オープンワールドリポジトリからイメージを取得する検索だ。
12ベンチマークにわたるQwen2.5-VL-7B-インストラクションについて : Active-Zero 53.97 における推論タスクの平均精度(5.7%の改善)と一般理解における 59.77 について(3.9%の改善)
論文 参考訳(メタデータ) (2026-02-11T17:29:17Z) - Enhancing Spatio-Temporal Zero-shot Action Recognition with Language-driven Description Attributes [54.50887214639301]
提案手法は,大規模言語モデルを用いて関連キーワードを抽出し,Webcrawled 記述を活用する革新的な手法である。
この方法は、人間のアノテーションの必要性を減らし、属性データ作成の面倒な手作業を取り除く。
ゼロショット実験では,UCF-101,HMDB-51,Kineetics-600で81.0%,53.1%,68.9%の精度を達成した。
論文 参考訳(メタデータ) (2025-10-31T07:45:44Z) - Agentic Jigsaw Interaction Learning for Enhancing Visual Perception and Reasoning in Vision-Language Models [63.69856480318313]
AGILEは、対話的なプロセスとしてジグソー解決を定式化し、モデルが環境に徐々に関与できるようにする。
我々は AGILE がジグソータスクの性能を大幅に向上させることを示す。
また、9つの一般的な視覚タスクに対して強力な一般化を示し、平均3.1%の改善を実現した。
論文 参考訳(メタデータ) (2025-10-01T17:58:05Z) - Improvement of Human-Object Interaction Action Recognition Using Scene Information and Multi-Task Learning Approach [0.0]
本研究では,環境中の固定オブジェクト情報を考慮し,人間の行動認識性能を活用する手法を提案する。
マルチタスク学習アプローチは、相互作用領域の情報とともに、99.25%の精度で研究された相互作用と非相互作用行動を認識することに成功している。
論文 参考訳(メタデータ) (2025-09-11T00:14:56Z) - Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Heuristic Vision Pre-Training with Self-Supervised and Supervised
Multi-Task Learning [0.0]
マルチタスク方式で自己教師型と教師型の両方の視覚的プレテキストタスクを採用することで、新しい事前学習フレームワークを提案する。
その結果、事前学習したモデルでは、複数の視覚的タスクにおいて、最先端(SOTA)結果と同等以上の結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-11T14:06:04Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Visuomotor Control in Multi-Object Scenes Using Object-Aware
Representations [25.33452947179541]
ロボット作業におけるオブジェクト指向表現学習の有効性を示す。
本モデルは,サンプル効率のよい制御ポリシーを学習し,最先端のオブジェクト技術より優れている。
論文 参考訳(メタデータ) (2022-05-12T19:48:11Z) - Task-Induced Representation Learning [14.095897879222672]
視覚的に複雑な環境における意思決定における表現学習手法の有効性を評価する。
表現学習は、視覚的に複雑なシーンであっても、目に見えないタスクのサンプル効率を向上する。
論文 参考訳(メタデータ) (2022-04-25T17:57:10Z) - Learning Representations with Contrastive Self-Supervised Learning for
Histopathology Applications [8.69535649683089]
コントラスト型自己教師型学習は,デジタル病理学におけるアノテーションの労力を減らしうることを示す。
本研究は,病理組織学応用のための自己教師あり学習の可能性を実現するための道を開くものである。
論文 参考訳(メタデータ) (2021-12-10T16:08:57Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Curious Representation Learning for Embodied Intelligence [81.21764276106924]
近年,自己指導型表現学習は顕著な成功を収めている。
しかし、真にインテリジェントなエージェントを構築するためには、環境から学習できる表現学習アルゴリズムを構築する必要がある。
本稿では,強化学習方針と視覚的表現モデルを同時に学習する,好奇心をそそる表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-03T17:59:20Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Scene-Graph Augmented Data-Driven Risk Assessment of Autonomous Vehicle
Decisions [1.4086978333609153]
本研究では,シーングラフを中間表現として利用する新しいデータ駆動手法を提案する。
我々のアプローチには、マルチリレーショングラフ畳み込みネットワーク、ロングショート長期記憶ネットワーク、そして運転操作の主観的リスクをモデル化するための注意層が含まれる。
提案手法は,大型(96.4%対91.2%)および小型(91.8%対71.2%)の最先端アプローチよりも高い分類精度が得られることを示す。
また、実世界のデータセットでテストすると、合成データセットでトレーニングされたモデルの平均精度が87.8%に達することを示す。
論文 参考訳(メタデータ) (2020-08-31T07:41:27Z) - A Simple Framework for Contrastive Learning of Visual Representations [116.37752766922407]
本稿では,視覚表現のコントラスト学習のためのシンプルなフレームワークであるSimCLRについて述べる。
我々は,データ拡張の構成が効果的な予測タスクを定義する上で重要な役割を担っていることを示す。
我々は、ImageNet上での自己教師付き半教師付き学習において、従来の手法よりもかなり優れています。
論文 参考訳(メタデータ) (2020-02-13T18:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。