論文の概要: Learning task-agnostic representation via toddler-inspired learning
- arxiv url: http://arxiv.org/abs/2101.11221v1
- Date: Wed, 27 Jan 2021 06:26:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 19:47:29.405574
- Title: Learning task-agnostic representation via toddler-inspired learning
- Title(参考訳): 幼児期学習によるタスク非依存表現の学習
- Authors: Kwanyoung Park, Junseok Park, Hyunseok Oh, Byoung-Tak Zhang, Youngki
Lee
- Abstract要約: 我々は,幼児の行動を通じて,高度に意図的な学習システムからインスピレーションを得た。
幼児の学習手順に触発されて,タスクに依存しない視覚表現を学習し,記憶できる対話型エージェントを設計する。
実験の結果,これらの表現は様々な視覚タスクに拡張可能であることがわかった。
- 参考スコア(独自算出の注目度): 19.478820330574628
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One of the inherent limitations of current AI systems, stemming from the
passive learning mechanisms (e.g., supervised learning), is that they perform
well on labeled datasets but cannot deduce knowledge on their own. To tackle
this problem, we derive inspiration from a highly intentional learning system
via action: the toddler. Inspired by the toddler's learning procedure, we
design an interactive agent that can learn and store task-agnostic visual
representation while exploring and interacting with objects in the virtual
environment. Experimental results show that such obtained representation was
expandable to various vision tasks such as image classification, object
localization, and distance estimation tasks. In specific, the proposed model
achieved 100%, 75.1% accuracy and 1.62% relative error, respectively, which is
noticeably better than autoencoder-based model (99.7%, 66.1%, 1.95%), and also
comparable with those of supervised models (100%, 87.3%, 0.71%).
- Abstract(参考訳): 現在のAIシステムの本質的な制限の1つは、受動的学習機構(例えば教師付き学習)に由来するもので、ラベル付きデータセットでうまく機能するが、自分自身で知識を引き出すことはできない。
この問題に取り組むため,我々は,アクションによる高度に意図的な学習システムからインスピレーションを得た。
幼児の学習過程にインスパイアされた対話型エージェントを設計し,仮想環境内の物体を探索・操作しながらタスクに依存しない視覚表現を学習・記憶する。
実験の結果,これらの表現は画像分類,物体の局所化,距離推定といった様々な視覚タスクに拡張可能であることがわかった。
具体的には、提案されたモデルは100%、75.1%の精度と1.62%の相対誤差を達成し、これはオートエンコーダベースのモデル(99.7%、66.1%、1.595%)よりも顕著に優れている。
関連論文リスト
- Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Heuristic Vision Pre-Training with Self-Supervised and Supervised
Multi-Task Learning [0.0]
マルチタスク方式で自己教師型と教師型の両方の視覚的プレテキストタスクを採用することで、新しい事前学習フレームワークを提案する。
その結果、事前学習したモデルでは、複数の視覚的タスクにおいて、最先端(SOTA)結果と同等以上の結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-11T14:06:04Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Visuomotor Control in Multi-Object Scenes Using Object-Aware
Representations [25.33452947179541]
ロボット作業におけるオブジェクト指向表現学習の有効性を示す。
本モデルは,サンプル効率のよい制御ポリシーを学習し,最先端のオブジェクト技術より優れている。
論文 参考訳(メタデータ) (2022-05-12T19:48:11Z) - Task-Induced Representation Learning [14.095897879222672]
視覚的に複雑な環境における意思決定における表現学習手法の有効性を評価する。
表現学習は、視覚的に複雑なシーンであっても、目に見えないタスクのサンプル効率を向上する。
論文 参考訳(メタデータ) (2022-04-25T17:57:10Z) - Learning Representations with Contrastive Self-Supervised Learning for
Histopathology Applications [8.69535649683089]
コントラスト型自己教師型学習は,デジタル病理学におけるアノテーションの労力を減らしうることを示す。
本研究は,病理組織学応用のための自己教師あり学習の可能性を実現するための道を開くものである。
論文 参考訳(メタデータ) (2021-12-10T16:08:57Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Curious Representation Learning for Embodied Intelligence [81.21764276106924]
近年,自己指導型表現学習は顕著な成功を収めている。
しかし、真にインテリジェントなエージェントを構築するためには、環境から学習できる表現学習アルゴリズムを構築する必要がある。
本稿では,強化学習方針と視覚的表現モデルを同時に学習する,好奇心をそそる表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-03T17:59:20Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Scene-Graph Augmented Data-Driven Risk Assessment of Autonomous Vehicle
Decisions [1.4086978333609153]
本研究では,シーングラフを中間表現として利用する新しいデータ駆動手法を提案する。
我々のアプローチには、マルチリレーショングラフ畳み込みネットワーク、ロングショート長期記憶ネットワーク、そして運転操作の主観的リスクをモデル化するための注意層が含まれる。
提案手法は,大型(96.4%対91.2%)および小型(91.8%対71.2%)の最先端アプローチよりも高い分類精度が得られることを示す。
また、実世界のデータセットでテストすると、合成データセットでトレーニングされたモデルの平均精度が87.8%に達することを示す。
論文 参考訳(メタデータ) (2020-08-31T07:41:27Z) - A Simple Framework for Contrastive Learning of Visual Representations [116.37752766922407]
本稿では,視覚表現のコントラスト学習のためのシンプルなフレームワークであるSimCLRについて述べる。
我々は,データ拡張の構成が効果的な予測タスクを定義する上で重要な役割を担っていることを示す。
我々は、ImageNet上での自己教師付き半教師付き学習において、従来の手法よりもかなり優れています。
論文 参考訳(メタデータ) (2020-02-13T18:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。