論文の概要: Fuse Local and Global Semantics in Representation Learning
- arxiv url: http://arxiv.org/abs/2202.13837v1
- Date: Mon, 28 Feb 2022 14:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 16:33:54.436254
- Title: Fuse Local and Global Semantics in Representation Learning
- Title(参考訳): 表現学習におけるFuse Local and Global Semantics
- Authors: Yuchi Zhao, Yuhao Zhou
- Abstract要約: FLAGSは、さまざまなダウンストリームタスクの恩恵を受けるために、画像からグローバルとローカルの両方の意味を抽出することを目的としている。
共通線形評価プロトコルで有望な結果を示す。
また,FLAGSによって抽出された表現が転送可能であることを示すため,PASCALVOCとCOCOで検出・セグメンテーションを行う。
- 参考スコア(独自算出の注目度): 9.237813591891852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Fuse Local and Global Semantics in Representation Learning (FLAGS)
to generate richer representations. FLAGS aims at extract both global and local
semantics from images to benefit various downstream tasks. It shows promising
results under common linear evaluation protocol. We also conduct detection and
segmentation on PASCAL VOC and COCO to show the representations extracted by
FLAGS are transferable.
- Abstract(参考訳): より豊かな表現を生成するためにFLAGS(Fuse Local and Global Semantics in Representation Learning)を提案する。
flagsは、画像からグローバルセマンティクスとローカルセマンティクスの両方を抽出することを目的としている。
共通線形評価プロトコルで有望な結果を示す。
また,FLAGSによって抽出された表現が転送可能であることを示すため,PASCALVOCとCOCOで検出・セグメンテーションを行う。
関連論文リスト
- Probing Multimodal Large Language Models for Global and Local Semantic Representations [57.25949445963422]
マルチモーダル大言語モデルのどの層がグローバルな画像情報に最も力を注いでいるかを検討する。
本研究では,モデルの中間層が,よりグローバルな意味情報を符号化できることを見出した。
最上位のレイヤが過度にローカル情報に集中していることが分かり、グローバル情報をエンコードする能力の低下につながります。
論文 参考訳(メタデータ) (2024-02-27T08:27:15Z) - Bilateral Reference for High-Resolution Dichotomous Image Segmentation [109.35828258964557]
高分解能ジコトコス像分割(DIS)のための新しい両側参照フレームワーク(BiRefNet)を導入する。
それは2つの重要な構成要素から構成される: 局在モジュール (LM) と再構成モジュール (RM) と、提案した両側参照 (BiRef) である。
RM内では、画像の階層的パッチがソース参照を提供し、勾配マップがターゲット参照として機能する、再構成プロセスにBiRefを利用する。
論文 参考訳(メタデータ) (2024-01-07T07:56:47Z) - Global and Local Semantic Completion Learning for Vision-Language
Pre-training [34.740507502215536]
クロスモーダルアライメントは、視覚言語事前学習モデルにおいて重要な役割を果たす。
グローバル・ローカル・セマンティック・コンプリート・ラーニング(GLSCL)タスクを提案し,グローバル・ローカル・アライメントとローカル・ローカル・アライメントを同時に行う。
論文 参考訳(メタデータ) (2023-06-12T13:20:29Z) - LoG-CAN: local-global Class-aware Network for semantic segmentation of
remote sensing images [4.124381172041927]
リモートセンシング画像にグローバルクラス認識(GCA)モジュールとローカルクラス認識(LCA)モジュールを備えたマルチスケールセマンティックセマンティックセマンティクスネットワークであるLoG-CANを提案する。
特に、LCAモジュールは、背景干渉を回避するためにクラスワイドコンテキストモデリングのグローバル表現をキャプチャし、LCAモジュールは、クラス内のばらつきを減らすために、クラスをグローバルクラス表現と間接的に関連付ける、中間認識要素としてローカルクラス表現を生成する。
論文 参考訳(メタデータ) (2023-03-14T09:44:29Z) - GL-CLeF: A Global-Local Contrastive Learning Framework for Cross-lingual
Spoken Language Understanding [74.39024160277809]
この問題に対処するために,グローバルローカルコントラスト学習フレームワーク(GL-CLeF)を提案する。
具体的には、比較学習を採用し、二言語辞書を活用して、同じ発話の多言語ビューを構築する。
GL-CLeFは最高のパフォーマンスを達成し、言語間の類似した文の表現をうまくプルする。
論文 参考訳(メタデータ) (2022-04-18T13:56:58Z) - An Entropy-guided Reinforced Partial Convolutional Network for Zero-Shot
Learning [77.72330187258498]
エントロピー誘導強化部分畳み込みネットワーク(ERPCNet)を提案する。
ERPCNetは、人間のアノテーションのない意味的関連性と視覚的相関に基づいて、局所性を抽出し、集約する。
グローバルな協力的局所性を動的に発見するだけでなく、ポリシー勾配最適化のためにより高速に収束する。
論文 参考訳(メタデータ) (2021-11-03T11:13:13Z) - Gait Recognition via Effective Global-Local Feature Representation and
Local Temporal Aggregation [28.721376937882958]
歩行認識は最も重要な生体計測技術の一つであり、多くの分野で応用されている。
近年の歩行認識フレームワークは、人間のグローバルな外観または地域から抽出された記述子によって各歩行フレームを表現している。
歩行認識のための識別的特徴表現を実現するための新しい特徴抽出・融合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-03T04:07:13Z) - GINet: Graph Interaction Network for Scene Parsing [58.394591509215005]
画像領域に対する文脈推論を促進するために,グラフインタラクションユニット(GIユニット)とセマンティックコンテキストロス(SC-loss)を提案する。
提案されたGINetは、Pascal-ContextやCOCO Stuffなど、一般的なベンチマークにおける最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2020-09-14T02:52:45Z) - SceneEncoder: Scene-Aware Semantic Segmentation of Point Clouds with A
Learnable Scene Descriptor [51.298760338410624]
本研究では,グローバル情報の効果を高めるために,シーン認識型ガイダンスを付加するSceneEncoderモジュールを提案する。
モジュールはシーン記述子を予測し、シーンに存在するオブジェクトのカテゴリを表現することを学習する。
また,同じラベルを持つ隣接点に対する特徴の識別を伝搬する領域類似度損失を設計する。
論文 参考訳(メタデータ) (2020-01-24T16:53:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。