論文の概要: Fairness-Aware Multi-view Evidential Learning with Adaptive Prior
- arxiv url: http://arxiv.org/abs/2508.12997v1
- Date: Mon, 18 Aug 2025 15:17:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.441975
- Title: Fairness-Aware Multi-view Evidential Learning with Adaptive Prior
- Title(参考訳): 適応的事前学習によるフェアネスを考慮したマルチビュー・エビデンシャル学習
- Authors: Haishun Chen, Cai Xu, Jinlong Yu, Yilin Zhang, Ziyu Guan, Wei Zhao,
- Abstract要約: 本研究では,多視点顕在学習のためのフェアネス・アウェア・マルチビュー・エビデンシャル・ラーニング(FAML)を提案する。
FAMLはよりバランスの取れたエビデンス割り当てを実現し、予測性能と不確実性推定の信頼性の両方を改善する。
- 参考スコア(独自算出の注目度): 15.395049268349519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view evidential learning aims to integrate information from multiple views to improve prediction performance and provide trustworthy uncertainty esitimation. Most previous methods assume that view-specific evidence learning is naturally reliable. However, in practice, the evidence learning process tends to be biased. Through empirical analysis on real-world data, we reveal that samples tend to be assigned more evidence to support data-rich classes, thereby leading to unreliable uncertainty estimation in predictions. This motivates us to delve into a new Biased Evidential Multi-view Learning (BEML) problem. To this end, we propose Fairness-Aware Multi-view Evidential Learning (FAML). FAML first introduces an adaptive prior based on training trajectory, which acts as a regularization strategy to flexibly calibrate the biased evidence learning process. Furthermore, we explicitly incorporate a fairness constraint based on class-wise evidence variance to promote balanced evidence allocation. In the multi-view fusion stage, we propose an opinion alignment mechanism to mitigate view-specific bias across views, thereby encouraging the integration of consistent and mutually supportive evidence. Extensive experiments on five real-world multi-view datasets demonstrate that FAML achieves more balanced evidence allocation and improves both prediction performance and the reliability of uncertainty estimation compared to state-of-the-art methods.
- Abstract(参考訳): 多視点顕在学習は、複数の視点からの情報を統合し、予測性能を改善し、信頼に値する不確実性評価を提供することを目的としている。
従来の手法の多くは、ビュー固有の証拠学習が自然に信頼できると仮定している。
しかし、実際には、エビデンス学習のプロセスは偏りがちである。
実世界のデータに関する実証分析により、サンプルはデータ豊富なクラスをサポートするためにより多くの証拠が割り当てられる傾向にあり、その結果、予測における信頼性の低い不確実性推定が導かれることが明らかになった。
これは、新しいバイアスド・エビデンシャル・マルチビュー・ラーニング(BEML)の問題を掘り下げる動機となります。
そこで本研究では,Fairness-Aware Multi-view Evidential Learning (FAML)を提案する。
FAMLはまず、偏見のあるエビデンス学習過程を柔軟に校正する正規化戦略として機能する訓練軌道に基づく適応的事前手法を導入する。
さらに,クラスワイドエビデンス分散に基づくフェアネス制約を明示的に組み込んで,バランスの取れたエビデンス割り当てを促進する。
多視点融合の段階では、ビュー間のビュー固有のバイアスを軽減するための意見アライメント機構を提案し、一貫性と相互支持的なエビデンスの統合を促進する。
5つの実世界のマルチビューデータセットに対する大規模な実験により、FAMLはよりバランスの取れたエビデンスアロケーションを実現し、最先端の手法と比較して予測性能と不確実性推定の信頼性の両方を改善した。
関連論文リスト
- Reliable Disentanglement Multi-view Learning Against View Adversarial Attacks [12.225939110845486]
既存のマルチビュー学習手法では、マルチビューデータが安全であると暗黙的に仮定している。
自律運転やセキュリティ監視のような安全に敏感なアプリケーションでは、マルチビューデータは敵の摂動による脅威に直面していることが多い。
本稿では,新しい多視点学習フレームワーク,すなわちReliable Disentanglement Multi-view Learning (RDML)を提案する。
論文 参考訳(メタデータ) (2025-05-07T01:12:00Z) - Dynamic Evidence Decoupling for Trusted Multi-view Learning [17.029245880233816]
本稿では,一貫性と相補性を考慮したマルチビューラーニング(CCML)手法を提案する。
我々はまず,信念の質量ベクトルと不確実性推定からなる明らかな深層ニューラルネットワークを用いて,見解を構築する。
その結果, 動的エビデンスデカップリング戦略の有効性を検証し, CCMLが精度と信頼性の基準線を著しく上回ることを示した。
論文 参考訳(メタデータ) (2024-10-04T03:27:51Z) - Evidential Deep Partial Multi-View Classification With Discount Fusion [24.139495744683128]
Evidential Deep partial Multi-View Classification (EDP-MVC) と呼ばれる新しいフレームワークを提案する。
欠落したビューに対処するためにK-means命令を使用し、マルチビューデータの完全なセットを作成します。
この暗示されたデータ内の潜在的な衝突や不確実性は、下流の推論の信頼性に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-08-23T14:50:49Z) - Navigating Conflicting Views: Harnessing Trust for Learning [5.776290041122041]
我々は,エビデンシャル・マルチビュー・フレームワークを強化する計算信頼に基づく割引手法を開発した。
提案手法は,Top-1の精度,Fleiss' Kappa,および新たな測定基準であるMulti-View Agreement with Ground Truthを用いて,実世界の6つのデータセットに対して評価を行った。
論文 参考訳(メタデータ) (2024-06-03T03:22:18Z) - Beyond DAGs: A Latent Partial Causal Model for Multimodal Learning [80.44084021062105]
本稿では,非方向エッジで連結された2つの潜在結合変数を特徴とする,多モーダルデータに対する新しい潜在部分因果モデルを提案する。
特定の統計的仮定の下では、多モーダル・コントラッシブ・ラーニングによって学習された表現が、自明な変換までの潜在結合変数に対応することを示す。
事前トレーニングされたCLIPモデルの実験は、非絡み合った表現を具現化し、数ショットの学習を可能にし、さまざまな現実世界のデータセットにわたるドメインの一般化を改善する。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Trusted Multi-View Classification with Dynamic Evidential Fusion [73.35990456162745]
信頼型マルチビュー分類(TMC)と呼ばれる新しいマルチビュー分類アルゴリズムを提案する。
TMCは、様々な視点をエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
理論的および実験的結果は、精度、堅牢性、信頼性において提案されたモデルの有効性を検証した。
論文 参考訳(メタデータ) (2022-04-25T03:48:49Z) - Trusted Multi-View Classification [76.73585034192894]
本稿では,信頼された多視点分類と呼ばれる新しい多視点分類手法を提案する。
さまざまなビューをエビデンスレベルで動的に統合することで、マルチビュー学習のための新しいパラダイムを提供する。
提案アルゴリズムは,分類信頼性とロバスト性の両方を促進するために,複数のビューを併用する。
論文 参考訳(メタデータ) (2021-02-03T13:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。