論文の概要: Bias Detection and Rotation-Robustness Mitigation in Vision-Language Models and Generative Image Models
- arxiv url: http://arxiv.org/abs/2601.08860v1
- Date: Fri, 09 Jan 2026 00:36:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.098794
- Title: Bias Detection and Rotation-Robustness Mitigation in Vision-Language Models and Generative Image Models
- Title(参考訳): 視覚言語モデルと生成画像モデルにおけるバイアス検出と回転ロバスト性軽減
- Authors: Tarannum Mithila,
- Abstract要約: VLM(Vision-Language Models)と生成画像モデル(Generative Image Models)は、マルチモーダルタスクにおいて顕著なパフォーマンスを実現している。
本研究では、最先端のビジョン言語および生成モデルにおけるバイアス伝搬とロバスト性について検討する。
本稿では,データ拡張,表現アライメント,モデルレベルの正規化を併用した回転ロバスト緩和戦略を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-Language Models (VLMs) and generative image models have achieved remarkable performance across multimodal tasks, yet their robustness and fairness under input transformations remain insufficiently explored. This work investigates bias propagation and robustness degradation in state-of-the-art vision-language and generative models, with a particular focus on image rotation and distributional shifts. We analyze how rotation-induced perturbations affect model predictions, confidence calibration, and demographic bias patterns. To address these issues, we propose rotation-robust mitigation strategies that combine data augmentation, representation alignment, and model-level regularization. Experimental results across multiple datasets demonstrate that the proposed methods significantly improve robustness while reducing bias amplification without sacrificing overall performance. This study highlights critical limitations of current multimodal systems and provides practical mitigation techniques for building more reliable and fair AI models.
- Abstract(参考訳): VLM(Vision-Language Models)と生成画像モデル(Generative Image Models)は、マルチモーダルタスクにおいて顕著な性能を達成しているが、入力変換時の堅牢性と公正性はいまだに不十分である。
本研究では,最先端の視覚言語および生成モデルにおけるバイアス伝搬とロバストネスの劣化について検討し,特に画像回転と分布シフトに着目した。
我々は、回転誘起摂動がモデル予測、信頼度校正、人口統計バイアスパターンにどのように影響するかを分析する。
これらの問題に対処するために、データ強化、表現アライメント、モデルレベルの正規化を組み合わせた回転ロバスト緩和戦略を提案する。
複数のデータセットにまたがる実験結果から,提案手法は全体の性能を犠牲にすることなく,バイアス増幅を低減し,ロバスト性を大幅に向上することが示された。
この研究は、現在のマルチモーダルシステムの限界を強調し、より信頼性が高く公正なAIモデルを構築するための実用的な緩和技術を提供する。
関連論文リスト
- Did Models Sufficient Learn? Attribution-Guided Training via Subset-Selected Counterfactual Augmentation [61.248535801314375]
Subset-Selected Counterfactual Augmentation (SS-CA)
我々は,モデル予測を選択的に変更可能な最小空間領域集合を識別するために,対実的LIMAを開発した。
実験により,SS-CAは分布内テストデータ(ID)の一般化を改善し,分布外ベンチマーク(OOD)において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-11-15T08:39:22Z) - Diffusion Models for Low-Light Image Enhancement: A Multi-Perspective Taxonomy and Performance Analysis [8.323736085126386]
低照度画像強調(LLIE)は、監視、自律ナビゲーション、医療画像などの安全上重要な応用に不可欠である。
拡散モデルがLLIEの有望な生成パラダイムとして登場したのは、反復的 denoising による複雑な画像分布のモデル化能力のためである。
本調査は, 次世代の拡散型LLIE研究の指針として, トレンドに注目し, オープンな研究課題を提起することを目的としている。
論文 参考訳(メタデータ) (2025-10-07T14:30:36Z) - HRR: Hierarchical Retrospection Refinement for Generated Image Detection [16.958383381415445]
階層的レトロスペクティブ再定義(HRR)と呼ばれる拡散モデルに基づく生成画像検出フレームワークを提案する。
HRRフレームワークは、生成した画像検出タスクにおいて、最先端のメソッドよりも優れたパフォーマンスを継続的に提供する。
論文 参考訳(メタデータ) (2025-02-25T05:13:44Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - What Matters When Repurposing Diffusion Models for General Dense Perception Tasks? [49.84679952948808]
最近の研究は、高密度知覚タスクのためのT2I拡散モデルを簡単に調整することで有望な結果を示す。
拡散前処理における伝達効率と性能に影響を及ぼす重要な要因を徹底的に検討する。
我々の研究は、濃密な視覚認知タスクに特化した効果的な決定論的ワンステップ微調整パラダイムであるGenPerceptの開発において頂点に達した。
論文 参考訳(メタデータ) (2024-03-10T04:23:24Z) - A data-centric approach to class-specific bias in image data
augmentation [0.0]
データ拡張(DA)は、コンピュータビジョンにおけるモデルの一般化を促進するが、バイアスを導入し、クラス精度に不均一に影響を及ぼす可能性がある。
DAのクラス固有のバイアスは、ImageNetと異なるデータセットを含む様々なデータセットでランダムなトリミングによって評価する。
これはモデル選択に対するニュアンスなアプローチを示唆し、バイアス緩和を強調している。
論文 参考訳(メタデータ) (2024-03-07T00:32:47Z) - Improving Adversarial Transferability via Model Alignment [25.43899674478279]
本稿では,トランスファー可能な逆方向摂動を生成するためのモデルアライメント手法を提案する。
さまざまなモデルアーキテクチャを用いたImageNetデータセットの実験では、アライメントされたソースモデルから発生する摂動が、転送可能性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-11-30T12:15:49Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。