論文の概要: What Makes a Good Example? Modeling Exemplar Selection with Neural Network Representations
- arxiv url: http://arxiv.org/abs/2602.03144v1
- Date: Tue, 03 Feb 2026 05:57:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.273856
- Title: What Makes a Good Example? Modeling Exemplar Selection with Neural Network Representations
- Title(参考訳): 良い例は何か? ニューラルネットワーク表現を用いた模範選択のモデル化
- Authors: Fanxiao Wani Qiu, Oscar Leong, Alexander LaTourrette,
- Abstract要約: 教えるには、豊富なカテゴリの分布を少数の情報的例に蒸留する必要がある。
以前の研究は、人間が教える際の代表性と多様性の両方を考慮することを示している。
ニューラルネットワークの特徴表現と原理化されたサブセット選択基準を用いて、人間の模範選択をモデル化することにより、このギャップに対処する。
- 参考スコア(独自算出の注目度): 45.81163684522312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Teaching requires distilling a rich category distribution into a small set of informative exemplars. Although prior work shows that humans consider both representativeness and diversity when teaching, the computational principles underlying these tradeoffs remain unclear. We address this gap by modeling human exemplar selection using neural network feature representations and principled subset selection criteria. Novel visual categories were embedded along a one-dimensional morph continuum using pretrained vision models, and selection strategies varied in their emphasis on prototypicality, joint representativeness, and diversity. Adult participants selected one to three exemplars to teach a learner. Model-human comparisons revealed that strategies based on joint representativeness, or its combination with diversity, best captured human judgments, whereas purely prototypical or diversity-based strategies performed worse. Moreover, transformer-based representations consistently aligned more closely with human behavior than convolutional networks. These results highlight the potential utility of dataset distillation methods in machine learning as computational models for teaching.
- Abstract(参考訳): 教えるには、豊富なカテゴリの分布を少数の情報的例に蒸留する必要がある。
以前の研究は、人間が教える際の代表性と多様性の両方を考慮していることを示しているが、これらのトレードオフの根底にある計算原理はいまだ不明である。
ニューラルネットワークの特徴表現と原理化されたサブセット選択基準を用いて、人間の模範選択をモデル化することにより、このギャップに対処する。
新しい視覚カテゴリーは、事前訓練された視覚モデルを用いて一次元形態連続体に沿って埋め込み、選択戦略は、その原型性、共同代表性、多様性に重点を置いていた。
成人の参加者は、学習者を教えるために1人から3人の見習いを選んだ。
モデルと人間の比較では、共同代表性に基づく戦略、あるいは多様性と組み合わせた戦略は、最も捕えられた人間の判断に最も適しているが、純粋に原型的または多様性に基づく戦略はより悪くなっていた。
さらに、トランスフォーマーに基づく表現は、畳み込みネットワークよりも人間の行動と密に一致している。
これらの結果は,機械学習におけるデータセット蒸留法の潜在的有用性を強調した。
関連論文リスト
- Preview-based Category Contrastive Learning for Knowledge Distillation [53.551002781828146]
知識蒸留(PCKD)のための新しい予見型カテゴリーコントラスト学習法を提案する。
まず、インスタンスレベルの特徴対応と、インスタンスの特徴とカテゴリ中心の関係の両方の構造的知識を蒸留する。
カテゴリ表現を明示的に最適化し、インスタンスとカテゴリの表現を明確に関連付けることができる。
論文 参考訳(メタデータ) (2024-10-18T03:31:00Z) - Learning Human-Aligned Representations with Contrastive Learning and Generative Similarity [9.63129238638334]
人間は、少数の例から学び、感覚データから有用な情報を抽象化するために効果的な表現に頼る。
ベイズ的類似性の概念を用いて、2つのデータポイントが同じ分布からサンプリングされた場合、類似していると考えられる。
本研究では, 形状規則性の人間的表現, ユークリッド幾何学的概念, 自然画像のセマンティック階層の抽出に有効であることを示す。
論文 参考訳(メタデータ) (2024-05-29T18:01:58Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Evaluating alignment between humans and neural network representations in image-based learning tasks [5.657101730705275]
トレーニング済みの860ドルのニューラルネットワークモデルの表現が、人間の学習軌跡にどのようにマッピングされているかテストしました。
トレーニングデータセットのサイズは人間の選択に沿った中核的な決定要因であるのに対し、マルチモーダルデータ(テキストと画像)による対照的なトレーニングは、人間の一般化を予測するために現在公開されているモデルの一般的な特徴であることがわかった。
結論として、事前訓練されたニューラルネットワークは、タスク間で伝達可能な認知の基本的な側面を捉えているように見えるため、認知モデルのための表現を抽出するのに役立つ。
論文 参考訳(メタデータ) (2023-06-15T08:18:29Z) - Human alignment of neural network representations [28.32452075196472]
ニューラルネットワークで学習した表現と行動応答から推定される人間の心的表現のアライメントに影響を与える要因について検討する。
モデルスケールとアーキテクチャは基本的に人間の行動応答に影響を与えないことがわかった。
食物や動物などの人間の概念はニューラルネットワークによってよく表現されているのに対し、ロイヤルやスポーツ関連の物体はそうではない。
論文 参考訳(メタデータ) (2022-11-02T15:23:16Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - Similarity of Neural Networks with Gradients [8.804507286438781]
本稿では,特徴ベクトルと勾配ベクトルの両方を利用してニューラルネットワークの表現を設計することを提案する。
提案手法はニューラルネットワークの類似性を計算するための最先端の手法を提供する。
論文 参考訳(メタデータ) (2020-03-25T17:04:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。