論文の概要: A solution to generalized learning from small training sets found in everyday infant experiences
- arxiv url: http://arxiv.org/abs/2510.15060v1
- Date: Thu, 16 Oct 2025 18:21:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.349489
- Title: A solution to generalized learning from small training sets found in everyday infant experiences
- Title(参考訳): 幼児期における小学生の学習の一般化に関する一解法
- Authors: Frangil Ramirez, Elizabeth Clerkin, David J. Crandall, Linda B. Smith,
- Abstract要約: 乳幼児14例(7~11カ月)の自我中心画像の解析
日常的な視覚入力は, 比較的類似した画像のクラスタが, より稀な, より可変な画像と交差する, 粗い類似構造を示す。
実験により、この構造を機械で模倣することで、機械学習の小さなデータセットからの一般化が向上することが示された。
- 参考スコア(独自算出の注目度): 6.323444741009534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Young children readily recognize and generalize visual objects labeled by common nouns, suggesting that these basic level object categories may be given. Yet if they are, how they arise remains unclear. We propose that the answer lies in the statistics of infant daily life visual experiences. Whereas large and diverse datasets typically support robust learning and generalization in human and machine learning, infants achieve this generalization from limited experiences. We suggest that the resolution of this apparent contradiction lies in the visual diversity of daily life, repeated experiences with single object instances. Analyzing egocentric images from 14 infants (aged 7 to 11 months) we show that their everyday visual input exhibits a lumpy similarity structure, with clusters of highly similar images interspersed with rarer, more variable ones, across eight early-learned categories. Computational experiments show that mimicking this structure in machines improves generalization from small datasets in machine learning. The natural lumpiness of infant experience may thus support early category learning and generalization and, more broadly, offer principles for efficient learning across a variety of problems and kinds of learners.
- Abstract(参考訳): 幼児は、共通名詞でラベル付けされた視覚オブジェクトを容易に認識し、一般化し、これらの基本的なレベルオブジェクトカテゴリが与えられる可能性があることを示唆している。
しかし、もしそうであるなら、どのようにして起こるのかは不明のままである。
本研究は,乳幼児の日常生活の視覚的経験の統計にその答えが関係していることを示唆する。
大規模で多様なデータセットは一般的に、人間と機械学習の堅牢な学習と一般化をサポートするが、幼児はこの一般化を限られた経験から達成する。
この明らかな矛盾の解消は、日常の視覚的多様性、単一のオブジェクトインスタンスで繰り返し体験することにあることを示唆する。
乳幼児14名(7~11カ月)の自我中心画像を解析したところ, 日常的な視覚入力は, 比較的類似した画像群が, 8つの早期学習カテゴリーにまたがって, より稀な, より可変な画像群に散在していることが判明した。
計算機実験により、この構造を機械で模倣することで、機械学習の小さなデータセットからの一般化が向上することが示された。
幼児体験の自然の楽しさは、早期のカテゴリー学習と一般化をサポートし、より広範に、様々な問題や種類の学習者に対して効率的な学習の原則を提供する。
関連論文リスト
- UNIFORM: Unifying Knowledge from Large-scale and Diverse Pre-trained Models [62.76435672183968]
UNIFORMと呼ばれる新しいフレームワークを導入し、多様なオフザシェルフモデルから1つの学生モデルへ知識を伝達する。
本稿では,ロジットレベルでも機能レベルでも知識のコンセンサスを捉えるための,専用の投票機構を提案する。
UNIFORMは、強い知識伝達ベースラインに比べて、教師なしオブジェクト認識性能を効果的に向上することを示した。
論文 参考訳(メタデータ) (2025-08-27T00:56:11Z) - Toddlers' Active Gaze Behavior Supports Self-Supervised Object Learning [4.612042044544857]
幼児の視線戦略が不変物体表現の学習を支援することを示す。
本研究は,幼児の視線行動が視覚不変物体認識の発達にどう役立つかを明らかにする。
論文 参考訳(メタデータ) (2024-11-04T10:44:46Z) - Self-supervised learning of video representations from a child's perspective [27.439294457852423]
子どもたちは、エゴセントリックな視覚経験から、周囲の強力な内部モデルを学びます。
そのような内部モデルは、高度に汎用的な学習アルゴリズムで子どもの視覚経験から学べるか、あるいは強い帰納的バイアスを必要とするのか?
論文 参考訳(メタデータ) (2024-02-01T03:27:26Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - Evaluation of Complexity Measures for Deep Learning Generalization in
Medical Image Analysis [77.34726150561087]
PAC-ベイズ平坦度とパスノルムに基づく測度は、モデルとデータの組み合わせについて最も一貫した説明をもたらす。
また,乳房画像に対するマルチタスク分類とセグメンテーションのアプローチについても検討した。
論文 参考訳(メタデータ) (2021-03-04T20:58:22Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - Learning abstract structure for drawing by efficient motor program
induction [52.13961975752941]
我々は、人間が構造化された事前知識を迅速に取得する方法を研究するために、自然主義的な描画タスクを開発する。
一般化を支援する抽象的な描画手順を自然に学習していることが示される。
本稿では,これらの再利用可能な描画プログラムを学習者がどのように発見できるかのモデルを提案する。
論文 参考訳(メタデータ) (2020-08-08T13:31:14Z) - A Computational Model of Early Word Learning from the Infant's Point of
View [15.443815646555125]
本研究では,親との遊戯中に幼児の学習者から収集したエゴセントリックな映像と視線データを用いた。
次に、畳み込みニューラルネットワーク(CNN)モデルを用いて、幼児の視点から感覚データを処理し、スクラッチから名前とオブジェクトの関連を学習した。
本研究は,幼児期の単語学習をシミュレートするために生のエゴセントリックビデオを利用する最初のモデルとして,早期語学習の問題を解くことができるという原理の証明を提供する。
論文 参考訳(メタデータ) (2020-06-04T12:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。