論文の概要: Scalable Evaluation and Neural Models for Compositional Generalization
- arxiv url: http://arxiv.org/abs/2511.02667v2
- Date: Wed, 05 Nov 2025 12:34:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 13:56:26.198886
- Title: Scalable Evaluation and Neural Models for Compositional Generalization
- Title(参考訳): 合成一般化のためのスケーラブル評価とニューラルモデル
- Authors: Giacomo Camposampiero, Pietro Barbiero, Michael Hersche, Roger Wattenhofer, Abbas Rahimi,
- Abstract要約: 本稿では,従来のアプローチを統一・拡張する厳密な評価フレームワークを提案する。
また、教師付き視覚バックボーンにおける構成一般化の状況について、広範囲かつ近代的な評価も導入している。
- 参考スコア(独自算出の注目度): 39.738623279065706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compositional generalization-a key open challenge in modern machine learning-requires models to predict unknown combinations of known concepts. However, assessing compositional generalization remains a fundamental challenge due to the lack of standardized evaluation protocols and the limitations of current benchmarks, which often favor efficiency over rigor. At the same time, general-purpose vision architectures lack the necessary inductive biases, and existing approaches to endow them compromise scalability. As a remedy, this paper introduces: 1) a rigorous evaluation framework that unifies and extends previous approaches while reducing computational requirements from combinatorial to constant; 2) an extensive and modern evaluation on the status of compositional generalization in supervised vision backbones, training more than 5000 models; 3) Attribute Invariant Networks, a class of models establishing a new Pareto frontier in compositional generalization, achieving a 23.43% accuracy improvement over baselines while reducing parameter overhead from 600% to 16% compared to fully disentangled counterparts. Our code is available at https://github.com/IBM/scalable-compositional-generalization.
- Abstract(参考訳): 合成一般化 - 既知の概念の未知の組み合わせを予測するため、現代の機械学習-要求モデルにおいて鍵となるオープンな課題である。
しかし、標準評価プロトコルの欠如と現在のベンチマークの限界により、しばしば厳密性よりも効率がよいため、構成一般化の評価は依然として根本的な課題である。
同時に、汎用視覚アーキテクチャには必要な帰納バイアスがなく、スケーラビリティを損なうような既存のアプローチもあります。
対策として,本論文では,次のことを紹介する。
1) 計算要求を組合せから定数に減らしつつ,従来のアプローチを統一し,拡張する厳格な評価枠組み
2 5000モデル以上の訓練を受けた監督視覚バックボーンにおける構成一般化の状況に関する広範かつ近代的な評価。
3) アトリビュート不変ネットワーク(Attribute Invariant Networks)は、合成の一般化において新しいパレートフロンティアを確立するモデルのクラスであり、ベースラインよりも23.43%の精度向上を実現し、パラメータのオーバーヘッドを完全に不整合したモデルに比べて600%から16%に削減した。
私たちのコードはhttps://github.com/IBM/scalable-compositional- generalizationで利用可能です。
関連論文リスト
- Deepfake Detection that Generalizes Across Benchmarks [48.85953407706351]
ディープフェイク検出器の非表示操作技術への一般化は、実用的展開の課題である。
この研究は、基礎となる事前学習された視覚エンコーダのパラメータ効率適応により、ロバストな一般化が達成可能であることを示す。
提案手法は、平均的クロスデータセットAUROCにおける、より複雑な、最新のアプローチよりも優れた、最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-08-08T12:03:56Z) - Generalizability of Neural Networks Minimizing Empirical Risk Based on Expressive Ability [20.371836553400232]
本稿では,経験的リスクを最小限に抑えた,あるいはほぼ最小化したニューラルネットワークの一般化可能性について検討する。
我々は、堅牢な一般化を含む、深層学習におけるいくつかの現象に関する理論的洞察を提供する。
論文 参考訳(メタデータ) (2025-03-06T05:36:35Z) - LLM4Rerank: LLM-based Auto-Reranking Framework for Recommendations [51.76373105981212]
リグレードはレコメンデーションシステムにおいて重要な要素であり、レコメンデーションアルゴリズムの出力を精査する上で重要な役割を果たす。
そこで我々は,様々な格付け基準をシームレスに統合する包括的格付けフレームワークを提案する。
カスタマイズ可能な入力機構も統合されており、言語モデルのフォーカスを特定の再配置のニーズに合わせることができる。
論文 参考訳(メタデータ) (2024-06-18T09:29:18Z) - Consistency-guided Prompt Learning for Vision-Language Models [23.4909421082857]
視覚言語モデルのための新しい微調整手法であるConsistency-Guided Prompt Learning (CoPrompt)を提案する。
提案手法は,下流タスクを数ショットで微調整した場合に,大規模な基礎モデルの一般化を改善する。
論文 参考訳(メタデータ) (2023-06-01T23:20:47Z) - Tight Guarantees for Interactive Decision Making with the
Decision-Estimation Coefficient [51.37720227675476]
我々は、決定推定係数の新たな変種を導入し、それを用いて、3つの面における事前の作業を改善する新しい下界を導出する。
我々は同じ量でスケールした後悔について上界を与え、フォスター等における上界と下界の間のギャップの1つを除いて全てを閉じる。
この結果は、後悔のフレームワークとPACフレームワークの両方に適用され、我々が期待するいくつかの新しい分析とアルゴリズム設計技術を利用して、より広範な利用が期待できる。
論文 参考訳(メタデータ) (2023-01-19T18:24:08Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - Information-Theoretic Bounds on the Moments of the Generalization Error
of Learning Algorithms [19.186110989897738]
一般化エラー境界は、機械学習モデルの性能を理解するために重要である。
本稿では,機械学習モデルの一般化動作を,一般化誤差モーメントに対する特徴付け(バウンド)に基づいてより洗練された分析を行う。
論文 参考訳(メタデータ) (2021-02-03T11:38:00Z) - In Search of Robust Measures of Generalization [79.75709926309703]
我々は、一般化誤差、最適化誤差、過大なリスクのバウンダリを開発する。
経験的に評価すると、これらの境界の大部分は数値的に空白である。
我々は、分散ロバストネスの枠組みの中で、一般化対策を評価するべきであると論じる。
論文 参考訳(メタデータ) (2020-10-22T17:54:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。