論文の概要: SynDaCaTE: A Synthetic Dataset For Evaluating Part-Whole Hierarchical Inference
- arxiv url: http://arxiv.org/abs/2506.17558v1
- Date: Sat, 21 Jun 2025 03:01:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.474642
- Title: SynDaCaTE: A Synthetic Dataset For Evaluating Part-Whole Hierarchical Inference
- Title(参考訳): SynDaCaTE: 部分ホール階層推論を評価するための合成データセット
- Authors: Jake Levi, Mark van der Wilk,
- Abstract要約: 本稿では,シンダカテ(SynDaCaTE)と略してキャプションテストと評価のためのシンセティック・ダタセットを提案する。
置換同変自己アテンションは,部分間推論に極めて有効であることを示す。
- 参考スコア(独自算出の注目度): 11.936427586941562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning to infer object representations, and in particular part-whole hierarchies, has been the focus of extensive research in computer vision, in pursuit of improving data efficiency, systematic generalisation, and robustness. Models which are \emph{designed} to infer part-whole hierarchies, often referred to as capsule networks, are typically trained end-to-end on supervised tasks such as object classification, in which case it is difficult to evaluate whether such a model \emph{actually} learns to infer part-whole hierarchies, as claimed. To address this difficulty, we present a SYNthetic DAtaset for CApsule Testing and Evaluation, abbreviated as SynDaCaTE, and establish its utility by (1) demonstrating the precise bottleneck in a prominent existing capsule model, and (2) demonstrating that permutation-equivariant self-attention is highly effective for parts-to-wholes inference, which motivates future directions for designing effective inductive biases for computer vision.
- Abstract(参考訳): オブジェクト表現、特に全体階層を推論する学習は、データの効率性、体系的な一般化、堅牢性の向上を追求するコンピュータビジョンにおける広範な研究の焦点となっている。
カプセルネットワークと呼ばれる部分全体階層を推論する「emph{designed}」モデルは通常、オブジェクト分類などの教師付きタスクにおいてエンドツーエンドで訓練される。
このような課題に対処するために,(1)既存のカプセルモデルにおける正確なボトルネックを示すSynDaCaTE(シンダカテ)と,(2)コンピュータビジョンに有効な帰納的バイアスを設計するための将来の方向性を示唆する部分間推論において,置換等価な自己アテンションが極めて有効であることを示すSynthetic DAtaset for CApsule Testing and Evaluation(シンダカテ)を提案する。
関連論文リスト
- Segment Concealed Objects with Incomplete Supervision [63.637733655439334]
不完全なスーパービジョン・コンセサイテッド・オブジェクト(ISCOS)は、周囲の環境にシームレスにブレンドするオブジェクトを分割する。
このタスクは、不完全な注釈付きトレーニングデータによって提供される限られた監督のため、非常に難しいままである。
本稿では,これらの課題に対処するためのISCOSの統一手法について紹介する。
論文 参考訳(メタデータ) (2025-06-10T16:25:15Z) - From Logits to Hierarchies: Hierarchical Clustering made Simple [16.132657141993548]
事前訓練された非階層クラスタリングモデル上に実装された軽量なプロシージャは、階層クラスタリングに特化して設計されたモデルより優れていることを示す。
提案手法は,微調整を必要とせず,ログを出力する事前学習クラスタリングモデルに適用可能である。
論文 参考訳(メタデータ) (2024-10-10T12:27:45Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Regularization Through Simultaneous Learning: A Case Study on Plant
Classification [0.0]
本稿では,トランスファーラーニングとマルチタスクラーニングの原則に基づく正規化アプローチである同時学習を紹介する。
我々は、ターゲットデータセットであるUFOP-HVDの補助データセットを活用し、カスタマイズされた損失関数でガイドされた同時分類を容易にする。
興味深いことに,本手法は正規化のないモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-22T19:44:57Z) - On the Generalization of Learned Structured Representations [5.1398743023989555]
我々は、その隠された構造を捉えた非構造化データの表現を、ほとんど、あるいは全く監督せずに学習する方法を研究する。
この論文の第2部は、シンボルのような実体の観点で入力の構成構造をキャプチャするオブジェクト中心表現に焦点を当てている。
論文 参考訳(メタデータ) (2023-04-25T17:14:36Z) - A Theoretical Understanding of Shallow Vision Transformers: Learning,
Generalization, and Sample Complexity [71.11795737362459]
自己注意モジュールを持つViTは、最近多くのタスクで経験的な成功を収めた。
しかし、理論学習の一般化分析は、ほとんどノイズが多く、解答的である。
本稿では,分類タスクのための浅いViTの理論的解析を行った。
論文 参考訳(メタデータ) (2023-02-12T22:12:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。