論文の概要: Debiasing Methods for Fairer Neural Models in Vision and Language
Research: A Survey
- arxiv url: http://arxiv.org/abs/2211.05617v1
- Date: Thu, 10 Nov 2022 14:42:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 14:02:22.524300
- Title: Debiasing Methods for Fairer Neural Models in Vision and Language
Research: A Survey
- Title(参考訳): 視覚・言語研究におけるより公平なニューラルモデルのためのデバイアス法:調査
- Authors: Ot\'avio Parraga, Martin D. More, Christian M. Oliveira, Nathan S.
Gavenski, Lucas S. Kupssinsk\"u, Adilson Medronha, Luis V. Moura, Gabriel S.
Sim\~oes, Rodrigo C. Barros
- Abstract要約: フェアネスを意識したニューラルネットワークの主なデバイアス法について,詳細な概要を述べる。
本研究では,公平性に関する嫌悪法に関する文献を整理する新しい分類法を提案する。
- 参考スコア(独自算出の注目度): 3.4767443062432326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite being responsible for state-of-the-art results in several computer
vision and natural language processing tasks, neural networks have faced harsh
criticism due to some of their current shortcomings. One of them is that neural
networks are correlation machines prone to model biases within the data instead
of focusing on actual useful causal relationships. This problem is particularly
serious in application domains affected by aspects such as race, gender, and
age. To prevent models from incurring on unfair decision-making, the AI
community has concentrated efforts in correcting algorithmic biases, giving
rise to the research area now widely known as fairness in AI. In this survey
paper, we provide an in-depth overview of the main debiasing methods for
fairness-aware neural networks in the context of vision and language research.
We propose a novel taxonomy to better organize the literature on debiasing
methods for fairness, and we discuss the current challenges, trends, and
important future work directions for the interested researcher and
practitioner.
- Abstract(参考訳): いくつかのコンピュータビジョンや自然言語処理タスクで最先端の結果に責任があるにもかかわらず、ニューラルネットワークは現在の欠点によって厳しい批判にさらされている。
その1つは、ニューラルネットワークが実際の有用な因果関係ではなく、データ内のバイアスをモデル化する傾向にある相関マシンであることだ。
この問題は、人種、性別、年齢といった側面に影響されるアプリケーション領域で特に深刻である。
モデルが不公平な決定を下すのを防ぐため、AIコミュニティはアルゴリズムのバイアスを修正する努力を集中させており、現在ではAIの公正さとして知られている研究領域を生み出している。
本稿では,視覚と言語研究の文脈において,フェアネス認識ニューラルネットワークの主なデバイアス手法を詳細に概観する。
本稿では,公平性の脱バイアスに関する文献を整理するための新しい分類法を提案し,研究者や実践者にとっての課題,傾向,今後の課題について考察する。
関連論文リスト
- Fairness and Bias Mitigation in Computer Vision: A Survey [61.01658257223365]
コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。
歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-08-05T13:44:22Z) - The Pursuit of Fairness in Artificial Intelligence Models: A Survey [2.124791625488617]
この調査は、研究者がAIシステムの公正性を促進する方法の相乗効果を提供する。
AIモデルのバイアスを軽減するために研究者が採用したアプローチとテクニックについて、徹底的な研究がなされている。
また、偏見付きモデルがユーザエクスペリエンスに与える影響や、そのようなモデルの開発とデプロイにおいて考慮すべき倫理的考慮についても調べます。
論文 参考訳(メタデータ) (2024-03-26T02:33:36Z) - A Survey on Knowledge Editing of Neural Networks [43.813073385305806]
最大の人工ニューラルネットワークでさえ間違いを犯し、世界が時間とともに進むにつれて、一度修正された予測が無効になる可能性がある。
知識編集は、訓練済みのターゲットモデルに対する信頼性、データ効率、迅速な変更の実現を目的とした、新しい研究分野として浮上している。
まず、ニューラルネットワークの編集の問題を紹介し、それを共通のフレームワークで形式化し、継続的学習のような悪名高い研究分野と区別する。
論文 参考訳(メタデータ) (2023-10-30T16:29:47Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - FairSNA: Algorithmic Fairness in Social Network Analysis [17.39106091928567]
ソーシャルネットワークの構造的バイアスが、さまざまな方法の公平性にどのように影響するかを強調します。
我々は、異なるSNA問題に対して、ネットワーク構造に基づくソリューションを提案しながら考慮すべき公平性について論じる。
フェアネスとSNAのギャップを埋めるために研究者の注意を必要とする様々なオープンな研究の方向性を強調した。
論文 参考訳(メタデータ) (2022-09-04T19:11:38Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - Technical Challenges for Training Fair Neural Networks [62.466658247995404]
最先端のアーキテクチャを用いて顔認識と自動診断データセットの実験を行います。
我々は、大きなモデルは公平さの目標に過度に適合し、意図しない、望ましくない結果を生み出すことを観察する。
論文 参考訳(メタデータ) (2021-02-12T20:36:45Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - Bayesian Neural Networks: An Introduction and Survey [22.018605089162204]
本稿ではベイズニューラルネットワーク(BNN)とその実装に関する基礎研究を紹介する。
異なる近似推論法を比較し、将来の研究が現在の手法でどのように改善されるかを強調するために使用される。
論文 参考訳(メタデータ) (2020-06-22T06:30:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。