論文の概要: Renyi Fair Information Bottleneck for Image Classification
- arxiv url: http://arxiv.org/abs/2203.04950v1
- Date: Wed, 9 Mar 2022 18:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 16:56:05.154334
- Title: Renyi Fair Information Bottleneck for Image Classification
- Title(参考訳): 画像分類のためのRenyi Fair Information Bottleneck
- Authors: Adam Gronowski and William Paul and Fady Alajaji and Bahman
Gharesifard and Philippe Burlina
- Abstract要約: 我々は、Renyi Fair Information Bottleneck(RFIB)と呼ばれる機械学習における公正性を保証する新しい方法を開発した。
フェア表現を学習するための2つの異なるフェアネス制約 - 人口統計パリティと等化オッズ - を考察し、Renyiの発散を調整可能なパラメータ$alpha$で用いた変分アプローチにより損失関数を導出する。
次に,EyePACSの医用画像データを用いた画像分類法の性能評価を行い,多種多様なユーティリティ/フェアネス測定値を用いて評価した。
- 参考スコア(独自算出の注目度): 12.13405065406781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a novel method for ensuring fairness in machine learning which we
term as the Renyi Fair Information Bottleneck (RFIB). We consider two different
fairness constraints - demographic parity and equalized odds - for learning
fair representations and derive a loss function via a variational approach that
uses Renyi's divergence with its tunable parameter $\alpha$ and that takes into
account the triple constraints of utility, fairness, and compactness of
representation. We then evaluate the performance of our method for image
classification using the EyePACS medical imaging dataset, showing it
outperforms competing state of the art techniques with performance measured
using a variety of compound utility/fairness metrics, including accuracy gap
and Rawls' minimal accuracy.
- Abstract(参考訳): 本研究では,Renyi Fair Information Bottleneck (RFIB) と呼ばれる機械学習における公正性を保証する新しい手法を開発した。
公平な表現を学習するための2つの異なるフェアネス制約 - 人口的パリティと均等化されたオッズ - を考察し、Renyiの発散を調節可能なパラメータ$\alpha$で利用し、実用性、公正性、表現のコンパクト性の3つの制約を考慮に入れた変分的アプローチにより損失関数を導出する。
そして,EyePACSの医用画像データセットを用いて画像分類法の性能を評価し,その精度とRawlsの最小精度を含む多種多種多種多種多様の実用/公正度測定値を用いて,技術技術の競合状態と性能を比較検討した。
関連論文リスト
- Fine-grained Image-to-LiDAR Contrastive Distillation with Visual Foundation Models [55.99654128127689]
Visual Foundation Models (VFM) は、3D表現学習を強化するために使用される。
VFMは、弱制御された画素間コントラスト蒸留のためのセマンティックラベルを生成する。
我々は,空間分布とカテゴリー周波数の不均衡に対応するために,点のサンプリング確率を適応させる。
論文 参考訳(メタデータ) (2024-05-23T07:48:19Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Learning from Multi-Perception Features for Real-Word Image
Super-resolution [87.71135803794519]
入力画像の複数の知覚的特徴を利用する新しいSR手法MPF-Netを提案する。
本稿では,MPFEモジュールを組み込んで,多様な知覚情報を抽出する手法を提案する。
また、モデルの学習能力を向上する対照的な正規化項(CR)も導入する。
論文 参考訳(メタデータ) (2023-05-26T07:35:49Z) - CoReFace: Sample-Guided Contrastive Regularization for Deep Face
Recognition [3.1677775852317085]
特徴表現学習に画像レベルの正規化を適用するために,CoReFace(Contrastive Regularization for Face Recognition)を提案する。
具体的には、サンプル誘導型コントラスト学習を用いて、画像と画像の関係を直接調整する。
コントラスト学習を顔認識に統合するため,画像の画質劣化を回避するために,画像の代わりに埋め込みを拡大する。
論文 参考訳(メタデータ) (2023-04-23T14:33:24Z) - Deep Semantic Statistics Matching (D2SM) Denoising Network [70.01091467628068]
本稿では,Deep Semantic Statistics Matching (D2SM) Denoising Networkを紹介する。
事前訓練された分類ネットワークの意味的特徴を利用して、意味的特徴空間における明瞭な画像の確率的分布と暗黙的に一致させる。
識別画像のセマンティックな分布を学習することで,ネットワークの認知能力を大幅に向上させることを実証的に見出した。
論文 参考訳(メタデータ) (2022-07-19T14:35:42Z) - Classification Utility, Fairness, and Compactness via Tunable
Information Bottleneck and R\'enyi Measures [11.907059059978774]
R'enyi Fair Information Bottleneck Method (RFIB) と呼ばれる新しいフェア表現学習手法を提案する。
このアプローチのキーとなる属性は、ほとんどの以前の作業とは対照的に、人口統計学的パーティと等化オッズの両方を公正な制約として考えることである。
RFIBは, 実用性, 公正性, 複合実用性/フェアネスの測定値において, 現在の最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-20T23:18:59Z) - Treatment Learning Causal Transformer for Noisy Image Classification [62.639851972495094]
本研究では,この2値情報「ノイズの存在」を画像分類タスクに組み込んで予測精度を向上させる。
因果的変動推定から動機付け,雑音画像分類のための頑健な特徴表現を潜在生成モデルを用いて推定するトランスフォーマーに基づくアーキテクチャを提案する。
また、パフォーマンスベンチマークのための幅広いノイズ要素を取り入れた、新しいノイズの多い画像データセットも作成する。
論文 参考訳(メタデータ) (2022-03-29T13:07:53Z) - Robust Contrastive Learning against Noisy Views [79.71880076439297]
ノイズの多い視点に対して頑健な新しいコントラスト損失関数を提案する。
提案手法は,最新の画像,ビデオ,グラフのコントラスト学習ベンチマークに対して一貫した改善を提供する。
論文 参考訳(メタデータ) (2022-01-12T05:24:29Z) - Adversarial Stacked Auto-Encoders for Fair Representation Learning [1.061960673667643]
そこで本稿では,データ表現のさまざまなレベルを活用して,学習した表現の公平性境界を厳格化するための,新しい公正表現学習手法を提案する。
その結果、異なる自動エンコーダを積み重ね、異なる潜在空間でフェアネスを強制すると、他の既存手法と比較してフェアネスが向上することがわかった。
論文 参考訳(メタデータ) (2021-07-27T13:49:18Z) - Just Noticeable Difference for Machine Perception and Generation of
Regularized Adversarial Images with Minimal Perturbation [8.920717493647121]
人間の知覚のジャスト通知差(JND)の概念に触発された機械知覚の尺度を紹介します。
本稿では,機械学習モデルが偽ラベルを出力することで画像の変化を検出するまで,画像を付加雑音で反復的に歪曲する逆画像生成アルゴリズムを提案する。
CIFAR10、ImageNet、MS COCOデータセット上で、アルゴリズムが生成する対向画像の定性的および定量的評価を行います。
論文 参考訳(メタデータ) (2021-02-16T11:01:55Z) - FairNN- Conjoint Learning of Fair Representations for Fair Decisions [40.05268461544044]
フェアネス認識学習のための結合特徴表現と分類を行うニューラルネットワークであるFairNNを提案する。
各種データセットに対する実験により,表現学習や教師あり学習における不公平性の分離処理よりも,このような共同アプローチの方が優れていることが示された。
論文 参考訳(メタデータ) (2020-04-05T12:08:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。