論文の概要: Reverse-engineer the Distributional Structure of Infant Egocentric Views
for Training Generalizable Image Classifiers
- arxiv url: http://arxiv.org/abs/2106.06694v1
- Date: Sat, 12 Jun 2021 06:02:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:04:44.982661
- Title: Reverse-engineer the Distributional Structure of Infant Egocentric Views
for Training Generalizable Image Classifiers
- Title(参考訳): 一般画像分類器の訓練のための逆エンジニアリングによる乳幼児中心視点の分布構造
- Authors: Satoshi Tsutsui, David Crandall, Chen Yu
- Abstract要約: 本稿は, 1) 子どもの自我中心の視点が, 大人の視点よりも多様な分布を持つという実証的証拠, 2) 幼児の分布を計算的にシミュレートできること, 3) より一般化された画像分類器の訓練に有用であることを示す。
- 参考スコア(独自算出の注目度): 3.9786277508261794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze egocentric views of attended objects from infants. This paper
shows 1) empirical evidence that children's egocentric views have more diverse
distributions compared to adults' views, 2) we can computationally simulate the
infants' distribution, and 3) the distribution is beneficial for training more
generalized image classifiers not only for infant egocentric vision but for
third-person computer vision.
- Abstract(参考訳): 幼児の物体の自己中心的視点を分析した。
1) 幼児の自己中心的視点が成人の視点よりも多様な分布を持つこと, 2) 幼児の分布を計算的にシミュレートできること, 3) 乳児の自己中心的視覚だけでなく, 3人目のコンピュータビジョンに対しても,より一般化した画像分類器の訓練に有効であること,の実証的証拠を示す。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Toward a Diffusion-Based Generalist for Dense Vision Tasks [141.03236279493686]
近年の研究では、画像自体が汎用的な視覚知覚のための自然なインタフェースとして利用できることが示されている。
我々は,画素空間での拡散を行い,高密度視覚タスクのための事前学習されたテキスト・画像拡散モデルを微調整するためのレシピを提案する。
実験では,4種類のタスクに対して評価を行い,他のビジョンジェネラリストと競合する性能を示す。
論文 参考訳(メタデータ) (2024-06-29T17:57:22Z) - Caregiver Talk Shapes Toddler Vision: A Computational Study of Dyadic
Play [8.164232628099619]
本稿では, ディヤドプレイにおける視覚表現学習の計算モデルを提案する。
実介護者の統計値に一致した発話は, カテゴリー認識の改善を支援する表現を生じさせることを示す。
論文 参考訳(メタデータ) (2023-12-07T08:18:40Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Vision-Based Manipulators Need to Also See from Their Hands [58.398637422321976]
本研究では,視覚的視点の選択が,生のセンサ観測から身体操作の文脈における学習と一般化にどう影響するかを検討する。
手中心(目の)視点は可観測性を低下させるが、トレーニング効率とアウト・オブ・ディストリビューションの一般化を一貫して改善する。
論文 参考訳(メタデータ) (2022-03-15T18:46:18Z) - Learning Weakly-Supervised Contrastive Representations [104.42824068960668]
弱教師付きコントラスト学習手法を2段階提案する。
第1段階は、その補助情報に従ってデータをクラスタ化することである。
2つ目のステージは、同じクラスタ内で同様の表現を学習し、異なるクラスタからのデータに対して異なる表現を学習することである。
論文 参考訳(メタデータ) (2022-02-14T12:57:31Z) - Using Navigational Information to Learn Visual Representations [7.747924294389427]
コントラスト学習の事前学習段階における空間的・時間的情報を用いることで、下流分類の性能を向上させることができることを示す。
この研究は、表現学習を改善するための文脈情報の有効性と効率を明らかにする。
論文 参考訳(メタデータ) (2022-02-10T20:17:55Z) - Distilling Visual Priors from Self-Supervised Learning [24.79633121345066]
畳み込みニューラルネットワーク(CNN)は、小さなトレーニングデータセットに適合する傾向にある。
データ不足条件下での画像分類のためのCNNモデルの一般化能力を向上させるために,自己教師付き学習と知識蒸留を活用した2相パイプラインを提案する。
論文 参考訳(メタデータ) (2020-08-01T13:07:18Z) - A Computational Model of Early Word Learning from the Infant's Point of
View [15.443815646555125]
本研究では,親との遊戯中に幼児の学習者から収集したエゴセントリックな映像と視線データを用いた。
次に、畳み込みニューラルネットワーク(CNN)モデルを用いて、幼児の視点から感覚データを処理し、スクラッチから名前とオブジェクトの関連を学習した。
本研究は,幼児期の単語学習をシミュレートするために生のエゴセントリックビデオを利用する最初のモデルとして,早期語学習の問題を解くことができるという原理の証明を提供する。
論文 参考訳(メタデータ) (2020-06-04T12:08:44Z) - Weakly-Supervised Disentanglement Without Compromises [53.55580957483103]
インテリジェントエージェントは、環境の変化を観察することで、有用な表現を学べるべきである。
変動の要因の少なくとも1つを共有する非I.d.画像のペアとしてそのような観測をモデル化する。
我々は,どの因子が変化したかのみを知るだけで,非絡み合った表現を学ぶのに十分であることを示す。
論文 参考訳(メタデータ) (2020-02-07T16:39:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。