論文の概要: Consistency of Compositional Generalization across Multiple Levels
- arxiv url: http://arxiv.org/abs/2412.13636v1
- Date: Wed, 18 Dec 2024 09:09:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:49:01.442553
- Title: Consistency of Compositional Generalization across Multiple Levels
- Title(参考訳): 複数のレベルにまたがる構成一般化の整合性
- Authors: Chuanhao Li, Zhen Li, Chenchen Jing, Xiaomeng Fan, Wenbo Ye, Yuwei Wu, Yunde Jia,
- Abstract要約: 複数のレベルにまたがる一貫した構成一般化を実現するためのメタラーニングベースのフレームワークを提案する。
一貫性を定量的に評価するGQA-CCGデータセットを構築した。
- 参考スコア(独自算出の注目度): 31.77432446850103
- License:
- Abstract: Compositional generalization is the capability of a model to understand novel compositions composed of seen concepts. There are multiple levels of novel compositions including phrase-phrase level, phrase-word level, and word-word level. Existing methods achieve promising compositional generalization, but the consistency of compositional generalization across multiple levels of novel compositions remains unexplored. The consistency refers to that a model should generalize to a phrase-phrase level novel composition, and phrase-word/word-word level novel compositions that can be derived from it simultaneously. In this paper, we propose a meta-learning based framework, for achieving consistent compositional generalization across multiple levels. The basic idea is to progressively learn compositions from simple to complex for consistency. Specifically, we divide the original training set into multiple validation sets based on compositional complexity, and introduce multiple meta-weight-nets to generate sample weights for samples in different validation sets. To fit the validation sets in order of increasing compositional complexity, we optimize the parameters of each meta-weight-net independently and sequentially in a multilevel optimization manner. We build a GQA-CCG dataset to quantitatively evaluate the consistency. Experimental results on visual question answering and temporal video grounding, demonstrate the effectiveness of the proposed framework. We release GQA-CCG at https://github.com/NeverMoreLCH/CCG.
- Abstract(参考訳): 構成一般化は、モデルが目に見える概念からなる新しい構成を理解する能力である。
フレーズ・フレーズ・レベル、フレーズ・ワード・レベル、単語・ワード・レベルなど、様々な種類の新しい構成が存在する。
既存の手法は有望な合成一般化を実現するが、合成一般化の整合性は新規な合成の複数のレベルにわたって明らかにされていない。
この一貫性は、モデルがフレーズ・フレーズ・レベル・ノベル・コンポジションと、それから同時に導出できるフレーズ・ワード・ワード・レベル・ノベル・コンポジションに一般化すべきであることを意味する。
本稿では,複数のレベルにまたがる一貫した構成一般化を実現するためのメタラーニングに基づくフレームワークを提案する。
基本的な考え方は、一貫性のために単純なものから複雑なものへと徐々に学習することである。
具体的には、構成複雑性に基づいて、元のトレーニングセットを複数のバリデーションセットに分割し、複数のメタウェイトネットを導入して、異なるバリデーションセットのサンプル重量を生成する。
構成複雑性を増大させるため,各メタウェイトネットのパラメータを多段階最適化法で独立に逐次最適化する。
一貫性を定量的に評価するGQA-CCGデータセットを構築した。
視覚的質問応答と時間的ビデオグラウンドの実験結果から,提案手法の有効性が示された。
我々はGQA-CCGをhttps://github.com/NeverMoreLCH/CCGでリリースします。
関連論文リスト
- T2I-CompBench: A Comprehensive Benchmark for Open-world Compositional
Text-to-image Generation [62.71574695256264]
T2I-CompBenchは、オープンワールドのコンポジションテキスト・ツー・イメージ生成のための包括的なベンチマークである。
合成テキスト・画像生成の評価に特化して設計されたいくつかの評価指標を提案する。
本稿では,ジェネレーティブmOdelファインタニングとReward-driven Sample selection (GORS)を導入することで,合成テキスト・画像生成能力を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-07-12T17:59:42Z) - Variational Cross-Graph Reasoning and Adaptive Structured Semantics
Learning for Compositional Temporal Grounding [143.5927158318524]
テンポラルグラウンドティング(Temporal grounding)とは、クエリ文に従って、未編集のビデオから特定のセグメントを特定するタスクである。
新たに構成時間グラウンドタスクを導入し,2つの新しいデータセット分割を構築した。
ビデオや言語に内在する構造的意味論は、構成的一般化を実現する上で重要な要素である、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-22T08:02:23Z) - Compositional Temporal Grounding with Structured Variational Cross-Graph
Correspondence Learning [92.07643510310766]
ビデオの時間的接地は、あるクエリ文に意味的に対応する1つのターゲットビデオセグメントをローカライズすることを目的としている。
新たに構成時間グラウンドタスクを導入し,2つの新しいデータセット分割を構築した。
出現した単語の新たな組み合わせによるクエリの一般化に失敗したことを実証的に見出した。
本稿では,ビデオと言語を複数の階層構造に明示的に分解する多変分グラフ推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-24T12:55:23Z) - Structurally Diverse Sampling Reduces Spurious Correlations in Semantic
Parsing Datasets [51.095144091781734]
本稿では,構造化された出力を持つラベル付きインスタンスプールから,構造的に多様なインスタンス群をサンプリングする新しいアルゴリズムを提案する。
提案アルゴリズムは, 合成テンプレート分割だけでなく, 従来のID分割においても, 従来のアルゴリズムよりも競合的に動作することを示す。
一般に、多種多様な列車集合は、10組のデータセット分割ペアのうち9組で同じ大きさのランダムな訓練集合よりも優れた一般化をもたらす。
論文 参考訳(メタデータ) (2022-03-16T07:41:27Z) - Compositional Generalization Requires Compositional Parsers [69.77216620997305]
直近のCOGSコーパスにおける構成原理によって導かれるシーケンス・ツー・シーケンスモデルとモデルを比較した。
構造一般化は構成一般化の重要な尺度であり、複雑な構造を認識するモデルを必要とする。
論文 参考訳(メタデータ) (2022-02-24T07:36:35Z) - Grounded Graph Decoding Improves Compositional Generalization in
Question Answering [68.72605660152101]
質問応答モデルは、長いシーケンスやより複雑なテスト構造のようなトレーニングパターンの新しい構成に一般化するのに苦労する。
構造化された予測をアテンション機構でグラウンド化することで,言語表現の合成一般化を改善する手法であるグラウンドドグラフデコーディングを提案する。
本モデルは,質問応答における合成一般化の挑戦的ベンチマークである構成自由ベース質問(CFQ)データセットにおいて,最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2021-11-05T17:50:14Z) - Improving Compositional Generalization in Classification Tasks via
Structure Annotations [33.90268697120572]
人間は構成を一般化する能力は大きいが、最先端のニューラルモデルはそれを行うのに苦労している。
まず、自然言語のシーケンス・ツー・シーケンス・データセットを、合成の一般化も必要とする分類データセットに変換する方法について検討する。
第二に、構造的ヒントを提供すること(特にトランスフォーマーモデルの注意マスクとしてパースツリーとエンティティリンクを提供すること)は、構成の一般化に役立つことを示す。
論文 参考訳(メタデータ) (2021-06-19T06:07:27Z) - COGS: A Compositional Generalization Challenge Based on Semantic
Interpretation [27.89019245763459]
英語の断片に基づく意味解析データセットであるCOGSを紹介する。
COGSの評価部分は、構成一般化によってのみ対処できる複数の系統的なギャップを含んでいる。
トランスフォーマーとLSTMを用いた実験では, COGS試験セットの分布精度は96~99%に近かったが, 一般化精度は16~35%低下し, ランダムシードに対する感度が高かった。
論文 参考訳(メタデータ) (2020-10-12T05:45:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。