論文の概要: Search for Concepts: Discovering Visual Concepts Using Direct
Optimization
- arxiv url: http://arxiv.org/abs/2210.14808v1
- Date: Tue, 25 Oct 2022 15:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 15:07:13.210894
- Title: Search for Concepts: Discovering Visual Concepts Using Direct
Optimization
- Title(参考訳): 概念探索:直接最適化による視覚概念の発見
- Authors: Pradyumna Reddy, Paul Guerrero, Niloy J. Mitra
- Abstract要約: 直接最適化はより一般化可能であり、正しい分解を見逃し、典型的には償却推論に基づく手法よりも少ないデータを必要とすることを示す。
これは、より直接的な最適化要素を統合することで改善される可能性のある、償却推論を使用する現在の一般的なプラクティスの弱点を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 48.51514897866221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Finding an unsupervised decomposition of an image into individual objects is
a key step to leverage compositionality and to perform symbolic reasoning.
Traditionally, this problem is solved using amortized inference, which does not
generalize beyond the scope of the training data, may sometimes miss correct
decompositions, and requires large amounts of training data. We propose finding
a decomposition using direct, unamortized optimization, via a combination of a
gradient-based optimization for differentiable object properties and global
search for non-differentiable properties. We show that using direct
optimization is more generalizable, misses fewer correct decompositions, and
typically requires less data than methods based on amortized inference. This
highlights a weakness of the current prevalent practice of using amortized
inference that can potentially be improved by integrating more direct
optimization elements.
- Abstract(参考訳): イメージの個々のオブジェクトへの教師なし分解を見つけることは、構成性を活用し、象徴的推論を行うための重要なステップである。
伝統的に、この問題はトレーニングデータの範囲を超えて一般化せず、時に正しい分解を見逃し、大量のトレーニングデータを必要とする、償却推論を用いて解決される。
本研究では, 微分対象特性に対する勾配に基づく最適化と非微分対象特性のグローバル探索を組み合わせることで, 直接的・不動最適化を用いた分解法を提案する。
直接最適化はより一般化可能であり、正確な分解を欠き、通常、償却推論に基づくメソッドよりも少ないデータを必要とする。
これは、より直接的な最適化要素を統合することで改善される可能性のある、償却推論を使用する現在の一般的なプラクティスの弱点を強調している。
関連論文リスト
- Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - Obtaining Explainable Classification Models using Distributionally
Robust Optimization [12.511155426574563]
特徴値規則の集合を用いて構築した一般化線形モデルについて検討する。
ルールセットの間隔と予測精度の間には、固有のトレードオフが存在する。
我々はこれらの競合する要因に同時に対処するルールセットの集合を学習するための新しい定式化を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:45:34Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Domain Generalization via Domain-based Covariance Minimization [4.414778226415752]
本稿では,領域間の条件分布の差を最小限に抑えるために,複数の領域に対する新しい分散測定法を提案する。
小規模なデータセットでは、未確認のテストデータセットよりも優れた一般化性能を示す、より良い定量的結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-12T19:30:15Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。