論文の概要: Compositional diversity in visual concept learning
- arxiv url: http://arxiv.org/abs/2305.19374v1
- Date: Tue, 30 May 2023 19:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 19:45:30.592561
- Title: Compositional diversity in visual concept learning
- Title(参考訳): 視覚概念学習における構成多様性
- Authors: Yanli Zhou, Reuben Feinman, Brenden M. Lake
- Abstract要約: 人間は構成性を活用して、新しい概念を効率的に学習し、親しみのある部分がどのように結合して新しい物体を形成するかを理解する。
そこで本研究では,豊かな関係構造を持つ「異星人」の分類・生成方法について考察する。
我々は,候補となる視覚図を生成するための最適なプログラムを探索するベイズプログラム誘導モデルを開発した。
- 参考スコア(独自算出の注目度): 18.907108368038216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans leverage compositionality to efficiently learn new concepts,
understanding how familiar parts can combine together to form novel objects. In
contrast, popular computer vision models struggle to make the same types of
inferences, requiring more data and generalizing less flexibly than people do.
Here, we study these distinctively human abilities across a range of different
types of visual composition, examining how people classify and generate ``alien
figures'' with rich relational structure. We also develop a Bayesian program
induction model which searches for the best programs for generating the
candidate visual figures, utilizing a large program space containing different
compositional mechanisms and abstractions. In few shot classification tasks, we
find that people and the program induction model can make a range of meaningful
compositional generalizations, with the model providing a strong account of the
experimental data as well as interpretable parameters that reveal human
assumptions about the factors invariant to category membership (here, to
rotation and changing part attachment). In few shot generation tasks, both
people and the models are able to construct compelling novel examples, with
people behaving in additional structured ways beyond the model capabilities,
e.g. making choices that complete a set or reconfiguring existing parts in
highly novel ways. To capture these additional behavioral patterns, we develop
an alternative model based on neuro-symbolic program induction: this model also
composes new concepts from existing parts yet, distinctively, it utilizes
neural network modules to successfully capture residual statistical structure.
Together, our behavioral and computational findings show how people and models
can produce a rich variety of compositional behavior when classifying and
generating visual objects.
- Abstract(参考訳): 人間はコンポジション性を利用して新しい概念を効率的に学習し、親しみやすい部分がどのように結合して新しいオブジェクトを形成するかを理解する。
対照的に、一般的なコンピュータビジョンモデルは、同じタイプの推論を作ることに苦労し、より多くのデータを必要とし、人間よりも柔軟に一般化しない。
そこで我々は,これらの特徴ある人間の能力について,多種多様な視覚構成にまたがって検討し,豊かな関係構造を持つ「アリアンフィギュア」の分類・生成方法を検討した。
また,様々な構成機構と抽象化を含む大規模プログラム空間を利用して,最適な視覚図形生成プログラムを探索するベイズプログラム誘導モデルを開発した。
少数のショット分類タスクでは,実験データに対する強い説明と,カテゴリーのメンバシップに不変な要因(ここでは回転と部分アタッチメントの変化)に関する人間の仮定を明らかにする解釈可能なパラメータを提供するとともに,人とプログラムの誘導モデルが有意義な構成的一般化を行うことができることが判明した。
少数のショット生成タスクでは、人とモデルの両方が魅力的な新しい例を構築でき、モデル機能を超えた構造的な方法、例えば、セットを完成させたり、既存のパーツを非常に新しい方法で再構成したりすることができる。
これらの追加の行動パターンを捉えるために,ニューロシンボリックなプログラム誘導に基づく代替モデルを開発した。
行動的および計算的知見は、視覚的オブジェクトの分類と生成において、人やモデルが多種多様な構成的振る舞いを生成できることを示す。
関連論文リスト
- Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Language Model Cascades [72.18809575261498]
テスト時に1つのモデルで繰り返し対話する、あるいは複数のモデルの合成は、さらに機能を拡張する。
制御フローと動的構造を持つ場合、確率的プログラミングのテクニックが必要となる。
この観点から、スクラッチパッド/思考連鎖、検証器、STaR、選択推論、ツール利用など、いくつかの既存のテクニックを定式化します。
論文 参考訳(メタデータ) (2022-07-21T07:35:18Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z) - Lensing Machines: Representing Perspective in Latent Variable Models [1.0878040851638]
我々は、人間の学習した表現と視点の間のレンズやマッピングを抽出する混合イニシアチブ技術であるレンズ技術を紹介する。
本稿では,2種類の潜伏変数モデル(混合メンバーシップモデルとマトリックス分解モデル)に対して,2つのメンタルヘルス応用の文脈でレンズリングを適用した。
論文 参考訳(メタデータ) (2022-01-20T21:42:20Z) - Meta-brain Models: biologically-inspired cognitive agents [0.0]
メタ脳モデルと呼ぶ計算手法を提案する。
特殊なモデルを用いて構成したレイヤの組み合わせを提案する。
我々は、この柔軟でオープンソースなアプローチの開発における次のステップを提案して、結論付けます。
論文 参考訳(メタデータ) (2021-08-31T05:20:53Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Flexible Compositional Learning of Structured Visual Concepts [17.665938343060112]
本研究では,豊かな関係構造を持つ抽象的な視覚形態を用いて,異なるタイプの視覚構成を学習する方法について検討する。
さまざまなシナリオで、ほんの数例から意味のある構成の一般化ができることが分かりました。
構成性の特別な場合を調べる過去の研究とは異なり、我々の研究は、単一の計算アプローチが多くの異なる種類の構成一般化を考慮できることを示す。
論文 参考訳(メタデータ) (2021-05-20T15:48:05Z) - Learning abstract structure for drawing by efficient motor program
induction [52.13961975752941]
我々は、人間が構造化された事前知識を迅速に取得する方法を研究するために、自然主義的な描画タスクを開発する。
一般化を支援する抽象的な描画手順を自然に学習していることが示される。
本稿では,これらの再利用可能な描画プログラムを学習者がどのように発見できるかのモデルを提案する。
論文 参考訳(メタデータ) (2020-08-08T13:31:14Z) - Learning Task-General Representations with Generative Neuro-Symbolic
Modeling [22.336243882030026]
我々は手書き文字概念の生成型ニューロシンボリック(GNS)モデルを開発する。
部品間の相関はニューラルネットワークのサブルーチンでモデル化され、モデルが生のデータから直接学習することができる。
その後の評価では、GNSモデルは確率的推論を用いて1つのトレーニング画像からリッチな概念表現を学習する。
論文 参考訳(メタデータ) (2020-06-25T14:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。