論文の概要: SCISSOR: Mitigating Semantic Bias through Cluster-Aware Siamese Networks for Robust Classification
- arxiv url: http://arxiv.org/abs/2506.14587v1
- Date: Tue, 17 Jun 2025 14:49:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.530299
- Title: SCISSOR: Mitigating Semantic Bias through Cluster-Aware Siamese Networks for Robust Classification
- Title(参考訳): SCISSOR:ロバスト分類のためのクラスタ対応シームスネットワークによるセマンティックバイアスの緩和
- Authors: Shuo Yang, Bardh Prenkaj, Gjergji Kasneci,
- Abstract要約: ショートカット学習は、モデル一般化をアウト・オブ・ディストリビューションデータに損なう。
本稿では,SCISSOR(Semantic Cluster Intervention for Suppressing ShORtcut)を提案する。
コンピュータビジョンではChest-XRay,Not-MNIST,NLPタスクではGYAFC,Yelpの4つのベンチマークでSCISSORを評価した。
- 参考スコア(独自算出の注目度): 16.633948320306832
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Shortcut learning undermines model generalization to out-of-distribution data. While the literature attributes shortcuts to biases in superficial features, we show that imbalances in the semantic distribution of sample embeddings induce spurious semantic correlations, compromising model robustness. To address this issue, we propose SCISSOR (Semantic Cluster Intervention for Suppressing ShORtcut), a Siamese network-based debiasing approach that remaps the semantic space by discouraging latent clusters exploited as shortcuts. Unlike prior data-debiasing approaches, SCISSOR eliminates the need for data augmentation and rewriting. We evaluate SCISSOR on 6 models across 4 benchmarks: Chest-XRay and Not-MNIST in computer vision, and GYAFC and Yelp in NLP tasks. Compared to several baselines, SCISSOR reports +5.3 absolute points in F1 score on GYAFC, +7.3 on Yelp, +7.7 on Chest-XRay, and +1 on Not-MNIST. SCISSOR is also highly advantageous for lightweight models with ~9.5% improvement on F1 for ViT on computer vision datasets and ~11.9% for BERT on NLP. Our study redefines the landscape of model generalization by addressing overlooked semantic biases, establishing SCISSOR as a foundational framework for mitigating shortcut learning and fostering more robust, bias-resistant AI systems.
- Abstract(参考訳): ショートカット学習は、モデル一般化をアウト・オブ・ディストリビューションデータに損なう。
文献は表面的特徴のバイアスに対するショートカットを特徴としているが,サンプル埋め込みのセマンティックな分布の不均衡は,スプリラスなセマンティックな相関を生じさせ,モデルロバスト性を損なうことを示した。
この問題に対処するため,我々は,ショートカットとして利用される潜在クラスタを回避し,セマンティック空間を再マップする,シームズ・ネットワークベースのデバイアス・アプローチであるSCISSOR(Semantic Cluster Intervention for Suppressing Shortcut)を提案する。
従来のデータデバイアスのアプローチとは異なり、SCISSORはデータ拡張と書き換えの必要性を排除している。
コンピュータビジョンではChest-XRay,Not-MNIST,NLPタスクではGYAFC,Yelpの4つのベンチマークでSCISSORを評価した。
いくつかのベースラインと比較して、SCISSORはGYAFCでF1スコアで5.3点、Yelpで+7.3点、Chest-XRayで+7.7点、No-MNISTで+1点を報告している。
SCISSORは軽量モデルにも非常に有利で、コンピュータビジョンデータセットのVTではF1が9.5%、NLPではBERTが11.9%改善している。
我々の研究は、見過ごされたセマンティックバイアスに対処し、ショートカット学習を緩和し、より堅牢でバイアス耐性のあるAIシステムを促進するための基盤となるフレームワークとしてSCISSORを確立することによって、モデル一般化の展望を再定義する。
関連論文リスト
- SIGMA: Refining Large Language Model Reasoning via Sibling-Guided Monte Carlo Augmentation [38.37231157929935]
Monte Carlo Tree Searchは、高品質な連鎖データを生成するための強力なテクニックである。
従来の手法では、探索木から上位の軌道のみを保持するのが一般的である。
我々は,これら捨てられた兄弟ノードを再統合し,LSM推論を洗練するための新しいフレームワークであるSIGMAを提案する。
論文 参考訳(メタデータ) (2025-06-06T18:55:16Z) - Interpretable Few-Shot Image Classification via Prototypical Concept-Guided Mixture of LoRA Experts [79.18608192761512]
自己説明可能なモデル(SEM)は、視覚認識プロセスをより解釈可能なものにするために、プロトタイプ概念学習(PCL)に依存している。
パラメトリック不均衡と表現の不整合という2つの重要な課題を緩和するFew-Shotプロトタイプ概念分類フレームワークを提案する。
我々のアプローチは、既存のSEMを顕著な差で常に上回っており、5-way 5-shot分類では4.2%-8.7%の相対的な利得がある。
論文 参考訳(メタデータ) (2025-06-05T06:39:43Z) - Benchmarking Reasoning Robustness in Large Language Models [76.79744000300363]
新規データや不完全データでは,性能が著しく低下することがわかった。
これらの結果は、厳密な論理的推論に対するリコールへの依存を浮き彫りにした。
本稿では,情報不足によって引き起こされる幻覚を利用して推論ギャップを明らかにする,Math-RoBと呼ばれる新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2025-03-06T15:36:06Z) - Entanglement Classification of Arbitrary Three-Qubit States via Artificial Neural Networks [2.715284063484557]
3ビットシステムの絡みを検知・分類する人工知能ニューラルネットワーク(ANN)を設計・実装する。
モデルはランダムに生成された状態のシミュレーションデータセット上で訓練され、検証される。
注目すべきは、密度行列の7つの対角要素をANNに供給するだけで、両方のタスクに対して94%以上の精度が得られることである。
論文 参考訳(メタデータ) (2024-11-18T06:50:10Z) - An Augmentation-based Model Re-adaptation Framework for Robust Image Segmentation [0.799543372823325]
セグメント化モデルの一般化を促進するための拡張型モデル再適応フレームワーク(AMRF)を提案する。
従来のモデル(FCNとU-Net)と事前訓練されたSAMモデルからセグメント化マスクを観察することにより、トレーニング効率とモデル性能を最適にバランスさせる最小拡張セットを決定する。
その結果,細調整したFCNは収穫精度が3.29%,収穫精度が3.02%,時間連続データセットが5.27%,分類精度が4.04%を超えることがわかった。
論文 参考訳(メタデータ) (2024-09-14T21:01:49Z) - Benchmarking Zero-Shot Robustness of Multimodal Foundation Models: A Pilot Study [61.65123150513683]
CLIPのようなマルチモーダル基盤モデルは、最先端のゼロショット結果を生成する。
これらのモデルは、ImageNetでトレーニングされた教師付きモデルのパフォーマンスを一致させることで、ロバスト性ギャップを埋めることが報告されている。
CLIPは、ベンチマーク上の教師付きImageNetモデルと比較して、かなりの堅牢性低下をもたらすことを示す。
論文 参考訳(メタデータ) (2024-03-15T17:33:49Z) - Generalized Logit Adjustment: Calibrating Fine-tuned Models by Removing Label Bias in Foundation Models [75.9543301303586]
CLIPのようなファンデーションモデルは、追加のトレーニングデータなしで、さまざまなタスクでゼロショット転送を可能にする。
微調整やアンサンブルも一般的に下流のタスクに合うように採用されている。
しかし、先行研究は基礎モデルに固有のバイアスを見落としていると論じる。
論文 参考訳(メタデータ) (2023-10-12T08:01:11Z) - Discover, Explanation, Improvement: An Automatic Slice Detection
Framework for Natural Language Processing [72.14557106085284]
スライス検出モデル(SDM)は、データポイントの低パフォーマンスなグループを自動的に識別する。
本稿では,NLPタスクの分類のための "Discover, Explain, improve (DEIM)" というベンチマークを提案する。
評価の結果,Edisaは情報的セマンティックな特徴を持つ誤り発生データポイントを正確に選択できることがわかった。
論文 参考訳(メタデータ) (2022-11-08T19:00:00Z) - Improved Aggregating and Accelerating Training Methods for Spatial Graph
Neural Networks on Fraud Detection [0.0]
本稿では,CARE-GNNをResidual Layered CARE-GNN(RLC-GNN)と呼ばれるディープモデルに拡張する改良されたディープアーキテクチャを提案する。
RLC-GNNの3つの課題は、近隣情報の利用が制限に達すること、訓練の難しさ、およびノードの特徴や外部パターンに関する包括的な考慮の欠如である。
YelpとAmazonのデータセットで実験が行われる。
論文 参考訳(メタデータ) (2022-02-14T09:51:35Z) - Consistency and Monotonicity Regularization for Neural Knowledge Tracing [50.92661409499299]
人間の知識獲得を追跡する知識追跡(KT)は、オンライン学習と教育におけるAIの中心的なコンポーネントです。
本稿では, 新たなデータ拡張, 代替, 挿入, 削除の3種類と, 対応する正規化損失を提案する。
さまざまなKTベンチマークに関する広範な実験は、私たちの正規化スキームがモデルのパフォーマンスを一貫して改善することを示しています。
論文 参考訳(メタデータ) (2021-05-03T02:36:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。