論文の概要: Translational Concept Embedding for Generalized Compositional Zero-shot
Learning
- arxiv url: http://arxiv.org/abs/2112.10871v1
- Date: Mon, 20 Dec 2021 21:27:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 00:55:56.392181
- Title: Translational Concept Embedding for Generalized Compositional Zero-shot
Learning
- Title(参考訳): 一般合成ゼロショット学習のための翻訳概念埋め込み
- Authors: He Huang, Wei Tang, Jiawei Zhang, Philip S. Yu
- Abstract要約: 一般合成ゼロショット学習は、ゼロショット方式で属性オブジェクト対の合成概念を学習する手段である。
本稿では,これら2つの課題を統一的なフレームワークで解決するために,翻訳概念の埋め込み(translational concept embedded)という新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 73.60639796305415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalized compositional zero-shot learning means to learn composed concepts
of attribute-object pairs in a zero-shot fashion, where a model is trained on a
set of seen concepts and tested on a combined set of seen and unseen concepts.
This task is very challenging because of not only the gap between seen and
unseen concepts but also the contextual dependency between attributes and
objects. This paper introduces a new approach, termed translational concept
embedding, to solve these two difficulties in a unified framework. It models
the effect of applying an attribute to an object as adding a translational
attribute feature to an object prototype. We explicitly take into account of
the contextual dependency between attributes and objects by generating
translational attribute features conditionally dependent on the object
prototypes. Furthermore, we design a ratio variance constraint loss to promote
the model's generalization ability on unseen concepts. It regularizes the
distances between concepts by utilizing knowledge from their pretrained word
embeddings. We evaluate the performance of our model under both the unbiased
and biased concept classification tasks, and show that our model is able to
achieve good balance in predicting unseen and seen concepts.
- Abstract(参考訳): 一般化された構成的ゼロショット学習とは、属性とオブジェクトのペアの合成概念をゼロショット形式で学習することであり、そこではモデルは見られている概念のセットで訓練され、見られている概念と見えない概念の組み合わせでテストされる。
このタスクは、目に見えない概念と見えない概念のギャップだけでなく、属性とオブジェクト間のコンテキスト依存性のため、非常に難しい。
本稿では,この2つの課題を解決するために,翻訳概念埋め込みという新しい手法を提案する。
オブジェクトに属性を適用することで、オブジェクトプロトタイプに翻訳属性機能を追加する効果をモデル化する。
属性とオブジェクト間のコンテキスト依存性を明示的に考慮し、オブジェクトプロトタイプに依存した翻訳属性の特徴を生成する。
さらに,不確定概念に対するモデルの一般化能力を促進するために,比分散制約損失を設計する。
学習済みの単語埋め込みから知識を活用し、概念間の距離を定式化する。
我々は、偏見のない概念分類タスクと偏見のない概念分類タスクの両方の下で、モデルの性能を評価し、このモデルが見えない概念を予測できることを示す。
関連論文リスト
- LLM-based Hierarchical Concept Decomposition for Interpretable Fine-Grained Image Classification [5.8754760054410955]
構造化概念解析によるモデル解釈可能性の向上を目的とした新しいフレームワークである textttHi-CoDecomposition を紹介する。
われわれのアプローチは、最先端のモデルの性能だけでなく、意思決定プロセスに対する明確な洞察を提供することで透明性を向上する。
論文 参考訳(メタデータ) (2024-05-29T00:36:56Z) - Advancing Ante-Hoc Explainable Models through Generative Adversarial Networks [24.45212348373868]
本稿では,視覚的分類タスクにおけるモデル解釈可能性と性能を向上させるための新しい概念学習フレームワークを提案する。
本手法では, 教師なし説明生成器を一次分類器ネットワークに付加し, 対角訓練を利用する。
この研究は、タスク整合概念表現を用いた本質的に解釈可能なディープビジョンモデルを構築するための重要なステップを示す。
論文 参考訳(メタデータ) (2024-01-09T16:16:16Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Concept-Centric Transformers: Enhancing Model Interpretability through
Object-Centric Concept Learning within a Shared Global Workspace [1.6574413179773757]
概念中心変換器は、解釈可能性のための共有グローバルワークスペースの単純かつ効果的な構成である。
本モデルでは,すべての問題に対して,すべてのベースラインの分類精度が向上することを示す。
論文 参考訳(メタデータ) (2023-05-25T06:37:39Z) - Context-LGM: Leveraging Object-Context Relation for Context-Aware Object
Recognition [48.5398871460388]
本稿では,オブジェクト・コンテキスト関係を階層的にモデル化する新しいコンテキスト潜在生成モデル(Contextual Latent Generative Model,Context-LGM)を提案する。
文脈的特徴を推定するために、変数自動エンコーダ(VAE)の目的関数を再構成し、対象物に対する後続条件付き分布として文脈的特徴を学習する。
本手法の有効性は,2つのコンテキスト認識オブジェクト認識タスクにおける最先端性能によって検証される。
論文 参考訳(メタデータ) (2021-10-08T11:31:58Z) - Relation-aware Compositional Zero-shot Learning for Attribute-Object
Pair Recognition [17.464548471883948]
本稿では,複合属性オブジェクトの概念を用いた画像認識モデルを提案する。
属性オブジェクトペアを構成するプリミティブな概念に対して,リッチで堅牢な特徴を学習するために必要な3つの重要な特性について検討する。
モデルが合成概念に偏りを生じないようにし,属性とオブジェクト間の絡み合いを低減するため,ブロック機構を提案する。
論文 参考訳(メタデータ) (2021-08-10T11:23:03Z) - Separating Skills and Concepts for Novel Visual Question Answering [66.46070380927372]
アウト・オブ・ディストリビューションデータへの一般化は、VQA(Visual Question Answering)モデルにおいて問題となっている。
「スキル」とは、数え方や属性認識などの視覚的なタスクであり、その疑問に言及された「概念」に適用される。
モデル内でこれらの2つの要因を暗黙的に分離するスキルと概念を学習するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-07-19T18:55:10Z) - Understanding Synonymous Referring Expressions via Contrastive Features [105.36814858748285]
画像とオブジェクトインスタンスレベルでのコントラスト機能を学ぶためのエンドツーエンドのトレーニング可能なフレームワークを開発しています。
提案アルゴリズムをいくつかのベンチマークデータセットで評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-04-20T17:56:24Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。