論文の概要: ReCon: Enhancing True Correspondence Discrimination through Relation Consistency for Robust Noisy Correspondence Learning
- arxiv url: http://arxiv.org/abs/2502.19962v2
- Date: Wed, 12 Mar 2025 10:13:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:36:42.278849
- Title: ReCon: Enhancing True Correspondence Discrimination through Relation Consistency for Robust Noisy Correspondence Learning
- Title(参考訳): ReCon:ロバストノイズ対応学習のための関係一貫性による真対応識別の強化
- Authors: Quanxing Zha, Xin Liu, Shu-Juan Peng, Yiu-ming Cheung, Xing Xu, Nannan Wang,
- Abstract要約: 本稿では,マルチモーダルデータ間の真の対応を正確に識別するための一般関係一貫性学習フレームワークであるReConを提案する。
ReConは、真の対応判別の有効性を大幅に向上させ、不一致ペアを確実にフィルタリングする。
- 参考スコア(独自算出の注目度): 42.292388966066135
- License:
- Abstract: Can we accurately identify the true correspondences from multimodal datasets containing mismatched data pairs? Existing methods primarily emphasize the similarity matching between the representations of objects across modalities, potentially neglecting the crucial relation consistency within modalities that are particularly important for distinguishing the true and false correspondences. Such an omission often runs the risk of misidentifying negatives as positives, thus leading to unanticipated performance degradation. To address this problem, we propose a general Relation Consistency learning framework, namely ReCon, to accurately discriminate the true correspondences among the multimodal data and thus effectively mitigate the adverse impact caused by mismatches. Specifically, ReCon leverages a novel relation consistency learning to ensure the dual-alignment, respectively of, the cross-modal relation consistency between different modalities and the intra-modal relation consistency within modalities. Thanks to such dual constrains on relations, ReCon significantly enhances its effectiveness for true correspondence discrimination and therefore reliably filters out the mismatched pairs to mitigate the risks of wrong supervisions. Extensive experiments on three widely-used benchmark datasets, including Flickr30K, MS-COCO, and Conceptual Captions, are conducted to demonstrate the effectiveness and superiority of ReCon compared with other SOTAs. The code is available at: https://github.com/qxzha/ReCon.
- Abstract(参考訳): ミスマッチしたデータペアを含むマルチモーダルデータセットから真対応を正確に特定できるだろうか?
既存の手法は、特に真と偽の対応を区別するために重要なモダリティ内の重要な関係の整合性を無視して、モダリティを横断するオブジェクトの表現間の類似性マッチングを強調している。
このような省略は、しばしば否定を正と誤認するリスクを負うため、予期せぬ性能低下につながる。
この問題に対処するため,マルチモーダルデータ間の真の対応を正確に識別し,ミスマッチによる悪影響を効果的に軽減する一般関係一貫性学習フレームワークであるReConを提案する。
具体的には、ReConは、新しい関係整合性学習を活用して、異なるモダリティ間の相互関係の整合性と、モダリティ内のモーダル内関係の整合性を確保する。
このような関係に対する二重の制約により、ReConは真の対応識別の有効性を著しく向上させ、不一致のペアを確実にフィルタリングして間違った監督者のリスクを軽減する。
Flickr30K、MS-COCO、Conceptual Captionsなど、広く使用されている3つのベンチマークデータセットに対する大規模な実験を行い、他のSOTAと比較してReConの有効性と優位性を実証した。
コードは、https://github.com/qxzha/ReCon.comで入手できる。
関連論文リスト
- A Variable Occurrence-Centric Framework for Inconsistency Handling (Extended Version) [13.706331473063882]
本稿では,命題ベースにおける不整合の分析と処理を行うフレームワークを提案する。
最小整合関係(MIR)と最大整合関係(MCR)の2つの双対概念を提案する。
論文 参考訳(メタデータ) (2024-12-16T15:22:10Z) - REPAIR: Rank Correlation and Noisy Pair Half-replacing with Memory for
Noisy Correspondence [36.274879585424635]
取得したデータにノイズが存在することは、クロスモーダルマッチングの性能低下につながる。
我々は,不一致なデータペア問題に対処するために,ランクコラーレーションと雑音hAlf wIth memoRyというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-13T04:01:20Z) - Synergistic Anchored Contrastive Pre-training for Few-Shot Relation
Extraction [4.7220779071424985]
Few-shot Relation extract (FSRE) は、ラベル付きコーパスのスパースセットから事実を抽出することを目的としている。
近年の研究では、事前学習言語モデルを用いたFSREの有望な結果が示されている。
本稿では,新しい相乗的アンカー付きコントラスト事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-19T10:16:24Z) - REBAR: Retrieval-Based Reconstruction for Time-series Contrastive Learning [64.08293076551601]
正の対を識別する学習尺度を新たに提案する。
検索ベースレコンストラクションは2つのシーケンス間の類似度を測定する。
本稿では,REBAR誤差が相互クラスメンバシップの予測因子であることを示す。
論文 参考訳(メタデータ) (2023-11-01T13:44:45Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Noisy-Correspondence Learning for Text-to-Image Person Re-identification [50.07634676709067]
本稿では,雑音対応においても頑健な視覚関係を学習するための新しいロバスト二重埋め込み法(RDE)を提案する。
提案手法は,3つのデータセット上での合成ノイズ対応と非合成ノイズ対応を両立させる。
論文 参考訳(メタデータ) (2023-08-19T05:34:13Z) - Document-level Relation Extraction with Relation Correlations [15.997345900917058]
文書レベルの関係抽出は,長期問題と複数ラベル問題という,見落とされた2つの課題に直面している。
関係の共起相関を解析し,DocREタスクに初めて導入する。
論文 参考訳(メタデータ) (2022-12-20T11:17:52Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。