論文の概要: Feature, Alignment, and Supervision in Category Learning: A Comparative Approach with Children and Neural Networks
- arxiv url: http://arxiv.org/abs/2602.03124v1
- Date: Tue, 03 Feb 2026 05:31:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.261556
- Title: Feature, Alignment, and Supervision in Category Learning: A Comparative Approach with Children and Neural Networks
- Title(参考訳): カテゴリー学習における特徴・アライメント・スーパービジョン--子どもとニューラルネットワークとの比較
- Authors: Fanxiao Wani Qiu, Oscar Leong,
- Abstract要約: 子どもたちと畳み込みニューラルネットワーク(CNN)を、数発の半教師付きカテゴリー学習タスクで比較する。
子どもは最小限のラベルから急速に一般化するが、特徴特異的なバイアスとアライメントに対する感受性が強い。
CNNは異なるインタラクションプロファイルを示している: 追加の監督はパフォーマンスを改善するが、アライメントと機能構造の両方が、追加の監督が学習に与える影響を和らげる。
- 参考スコア(独自算出の注目度): 4.681760167323748
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding how humans and machines learn from sparse data is central to cognitive science and machine learning. Using a species-fair design, we compare children and convolutional neural networks (CNNs) in a few-shot semi-supervised category learning task. Both learners are exposed to novel object categories under identical conditions. Learners receive mixtures of labeled and unlabeled exemplars while we vary supervision (1/3/6 labels), target feature (size, shape, pattern), and perceptual alignment (high/low). We find that children generalize rapidly from minimal labels but show strong feature-specific biases and sensitivity to alignment. CNNs show a different interaction profile: added supervision improves performance, but both alignment and feature structure moderate the impact additional supervision has on learning. These results show that human-model comparisons must be drawn under the right conditions, emphasizing interactions among supervision, feature structure, and alignment rather than overall accuracy.
- Abstract(参考訳): 人間と機械がスパースデータからどのように学習するかを理解することは、認知科学と機械学習の中心である。
種相設計を用いて、子どもたちと畳み込みニューラルネットワーク(CNN)を、数発の半教師付きカテゴリー学習タスクで比較する。
両方の学習者は同一条件下で新しい対象カテゴリーに曝される。
学習者は、監督(1/3/6ラベル)、目標特徴(サイズ、形状、パターン)、知覚的アライメント(ハイ/ロー)が異なる間にラベル付きおよびラベルなしの例の混合を受け取る。
子どもは最小限のラベルから急速に一般化するが、特徴特異的なバイアスとアライメントに対する感受性が強い。
CNNは異なるインタラクションプロファイルを示している: 追加の監督はパフォーマンスを改善するが、アライメントと機能構造の両方が、追加の監督が学習に与える影響を緩やかにする。
これらの結果から,人間モデルの比較は,全体的精度よりも,監督,特徴構造,アライメントの相互作用を重視し,適切な条件下で行う必要があることが示唆された。
関連論文リスト
- A Brain-like Synergistic Core in LLMs Drives Behaviour and Learning [50.68188138112555]
大規模言語モデルが自然に相乗的コアを開発することを示す。
中層の領域は相乗的処理を示し, 初期層と後期層は冗長性に依存していることがわかった。
この収束は、シナジスティック情報処理が知性の基本的な性質であることを示している。
論文 参考訳(メタデータ) (2026-01-11T10:48:35Z) - Comparing supervised learning dynamics: Deep neural networks match human data efficiency but show a generalisation lag [3.0333265803394993]
近年の研究では、画像分類分野における人間とディープニューラルネットワーク(DNN)の行動比較が数多く行われている。
本稿では、人間の観察者および様々な古典的かつ最先端のDNNにおける学習力学の詳細な研究について報告する。
学習プロセス全体にわたって、十分に学習された表現が、これまで見つからなかったテストデータにどのように一般化できるかを評価し、比較する。
論文 参考訳(メタデータ) (2024-02-14T16:47:20Z) - Hierarchical Contrastive Learning Enhanced Heterogeneous Graph Neural
Network [59.860534520941485]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、異種情報ネットワーク(HIN)を扱う能力に優れていた。
近年,自己指導型学習は最もエキサイティングな学習パラダイムの1つとなり,ラベルがない場合に大きな可能性を示す。
本稿では,自己教師型HGNNの問題点を考察し,HGNNのための新しいコントラスト学習機構であるHeCoを提案する。
論文 参考訳(メタデータ) (2023-04-24T16:17:21Z) - Encoding Hierarchical Information in Neural Networks helps in
Subpopulation Shift [8.01009207457926]
ディープニューラルネットワークは画像分類のタスクに適していることが証明されている。
本研究では,新しい条件付き教師あり学習フレームワークのレンズを用いて,上記の問題について検討する。
この構造的階層的な学習によって、サブ人口移動に対してより堅牢なネットワークが得られることを示す。
論文 参考訳(メタデータ) (2021-12-20T20:26:26Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - A Systematic Evaluation: Fine-Grained CNN vs. Traditional CNN
Classifiers [54.996358399108566]
本稿では,大規模分類データセット上でトップノーチ結果を示すランドマーク一般的なCNN分類器の性能について検討する。
最先端のきめ細かい分類器と比較する。
実験において, 粒度の細かい分類器がベースラインを高められるかどうかを判定するために, 6つのデータセットについて広範囲に評価する。
論文 参考訳(メタデータ) (2020-03-24T23:49:14Z) - The large learning rate phase of deep learning: the catapult mechanism [50.23041928811575]
問題解決可能なトレーニングダイナミクスを備えたニューラルネットワークのクラスを提示する。
現実的なディープラーニング環境において,モデルの予測とトレーニングのダイナミクスとの間には,よい一致がある。
我々の結果は、異なる学習率でトレーニングされたモデルの特性に光を当てたと信じています。
論文 参考訳(メタデータ) (2020-03-04T17:52:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。