論文の概要: On the Reproducibility of "FairCLIP: Harnessing Fairness in Vision-Language Learning''
- arxiv url: http://arxiv.org/abs/2509.06535v1
- Date: Mon, 08 Sep 2025 10:41:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.070298
- Title: On the Reproducibility of "FairCLIP: Harnessing Fairness in Vision-Language Learning''
- Title(参考訳): 視覚言語学習における「FairCLIP:ハーネスングフェアネス」の再現性について
- Authors: Hua Chang Bakker, Stan Fris, Angela Madelon Bernardy, Stan Deutekom,
- Abstract要約: 新しい実装であるA-FairCLIPは、特定の設計選択を調べるために導入された。
距離最小化がFairCLIPの公平性と性能に及ぼす影響について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigated the reproducibility of FairCLIP, proposed by Luo et al. (2024), for improving the group fairness of CLIP (Radford et al., 2021) by minimizing image-text similarity score disparities across sensitive groups using the Sinkhorn distance. The experimental setup of Luo et al. (2024) was reproduced to primarily investigate the research findings for FairCLIP. The model description by Luo et al. (2024) was found to differ from the original implementation. Therefore, a new implementation, A-FairCLIP, is introduced to examine specific design choices. Furthermore, FairCLIP+ is proposed to extend the FairCLIP objective to include multiple attributes. Additionally, the impact of the distance minimization on FairCLIP's fairness and performance was explored. In alignment with the original authors, CLIP was found to be biased towards certain demographics when applied to zero-shot glaucoma classification using medical scans and clinical notes from the Harvard-FairVLMed dataset. However, the experimental results on two datasets do not support their claim that FairCLIP improves the performance and fairness of CLIP. Although the regularization objective reduces Sinkhorn distances, both the official implementation and the aligned implementation, A-FairCLIP, were not found to improve performance nor fairness in zero-shot glaucoma classification.
- Abstract(参考訳): The reproducibility of FairCLIP, proposed by Luo et al (2024), for the group fairness of CLIP (Radford et al , 2021) by minimizing image-text similarity score disparities across sensitive group using the Sinkhorn distance。
The experimental set of Luo et al (2024) was repeated to investigated the research findings for FairCLIP。
Luo et al (2024) によるモデル記述は、オリジナルの実装とは異なることが判明した。
そのため、A-FairCLIPという新しい実装を導入し、特定の設計選択について検討する。
さらに、FairCLIP+は複数の属性を含むようにFairCLIPの目的を拡張するために提案されている。
さらに, 距離最小化がFairCLIPの公平性と性能に及ぼす影響について検討した。
原著者と合わせて、CLIPは、医学スキャンとHarvard-FairVLMedデータセットによる臨床ノートを用いたゼロショット緑内障分類に適用すると、特定の人口層に偏りがあることが判明した。
しかし、2つのデータセットの実験結果は、FairCLIPがCLIPの性能と公平性を改善するという彼らの主張を支持していない。
正規化の対象はシンクホーン距離を減少させるが, 公式実装とアライメント実装であるA-FairCLIPは, ゼロショット緑内障の分類において, 性能や公平性の向上は認められなかった。
関連論文リスト
- AdFair-CLIP: Adversarial Fair Contrastive Language-Image Pre-training for Chest X-rays [31.250542176856907]
本稿では,AdFair-CLIPについて紹介する。
我々は胸部X線(CXR)データセットの総合的な実験を行い、AdFair-CLIPは公平性と診断精度の両方を著しく向上させることを示した。
論文 参考訳(メタデータ) (2025-06-30T02:19:22Z) - Self-Supervised Contrastive Learning is Approximately Supervised Contrastive Learning [48.11265601808718]
標準的な自己指導型コントラスト学習目標が暗黙的に教師付き変種を近似することを示し,我々は負のみ教師付きコントラスト学習損失(NSCL)と呼ぶ。
ラベルに依存しない,アーキテクチャに依存しない境界の下で,意味クラスの数が増えるにつれて,CLとNSCLの損失のギャップが消滅することを証明する。
論文 参考訳(メタデータ) (2025-06-04T19:43:36Z) - FairerCLIP: Debiasing CLIP's Zero-Shot Predictions using Functions in RKHSs [24.991684983495542]
本稿では,CLIPのゼロショット予測をより公平かつ堅牢に行うための一般手法であるFairerCLIPを提案する。
ヒルベルト核空間(RKHS)の再生において,CLIPのイメージとテキスト表現を両立させる問題を定式化する。
論文 参考訳(メタデータ) (2024-03-22T19:41:26Z) - Decoupled Contrastive Learning for Long-Tailed Recognition [58.255966442426484]
Supervised Contrastive Loss (SCL) は視覚表現学習で人気がある。
ロングテール認識のシナリオでは、各クラスのサンプル数が不均衡である場合、2種類の正のサンプルを同じように扱うと、カテゴリー内距離に対するバイアス最適化が導かれる。
そこで我々は,尾級の低表現を緩和するために,頭級から尾級へ知識を伝達するためのパッチベースの自己蒸留法を提案する。
論文 参考訳(メタデータ) (2024-03-10T09:46:28Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - Enhancing Adversarial Contrastive Learning via Adversarial Invariant
Regularization [59.77647907277523]
Adversarial contrastive learning (ACL)は、標準コントラスト学習(SCL)を強化する技術である。
本稿では,スタイル要因からの独立性を確保するために,逆不変正規化(AIR)を提案する。
論文 参考訳(メタデータ) (2023-04-30T03:12:21Z) - CLIP Itself is a Strong Fine-tuner: Achieving 85.7% and 88.0% Top-1
Accuracy with ViT-B and ViT-L on ImageNet [139.56863124214905]
CLIPの微調整性能はかなり過小評価されている。
具体的には、CLIP ViT-Base/16とCLIP ViT-Large/14は、ImageNet-1KデータセットのTop-1精度を85.7%、88.0%微調整することができる。
論文 参考訳(メタデータ) (2022-12-12T18:59:59Z) - FairCLIP: Social Bias Elimination based on Attribute Prototype Learning and Representation Neutralization [19.105267891045532]
本稿では,CLIPに基づく画像検索における社会的バイアスを取り除くためにFairCLIPを提案する。
FairCLIPは、すべてのCLIPダウンストリームタスクに共通する表現の中立化を実現する。
論文 参考訳(メタデータ) (2022-10-26T08:46:24Z) - Non-Contrastive Learning Meets Language-Image Pre-Training [145.6671909437841]
非コントラスト型言語画像事前学習(nCLIP)の有効性について検討する。
我々は、CLIPとnCLIPを組み合わせたマルチタスクフレームワークであるxCLIPを紹介し、nCLIPが機能セマンティクスの強化にCLIPを支援することを示す。
論文 参考訳(メタデータ) (2022-10-17T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。