論文の概要: Data-Algorithm-Architecture Co-Optimization for Fair Neural Networks on Skin Lesion Dataset
- arxiv url: http://arxiv.org/abs/2407.13896v1
- Date: Thu, 18 Jul 2024 20:49:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 19:32:58.905111
- Title: Data-Algorithm-Architecture Co-Optimization for Fair Neural Networks on Skin Lesion Dataset
- Title(参考訳): 皮膚病変データセットに基づく公正ニューラルネットワークのためのデータ-アルゴリズム-アーキテクチャ共最適化
- Authors: Yi Sheng, Junhuan Yang, Jinyang Li, James Alaina, Xiaowei Xu, Yiyu Shi, Jingtong Hu, Weiwen Jiang, Lei Yang,
- Abstract要約: 本稿では,皮膚病変のデータセット解析において,良好な結果を得るために設計された新しいフレームワークであるBiaslessNASを紹介する。
実験の結果, BiaslessNASは従来のNAS法に比べて2.55%の精度向上と65.50%の公平性向上を実現していることがわかった。
- 参考スコア(独自算出の注目度): 14.525907439844241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Artificial Intelligence (AI) increasingly integrates into our daily lives, fairness has emerged as a critical concern, particularly in medical AI, where datasets often reflect inherent biases due to social factors like the underrepresentation of marginalized communities and socioeconomic barriers to data collection. Traditional approaches to mitigating these biases have focused on data augmentation and the development of fairness-aware training algorithms. However, this paper argues that the architecture of neural networks, a core component of Machine Learning (ML), plays a crucial role in ensuring fairness. We demonstrate that addressing fairness effectively requires a holistic approach that simultaneously considers data, algorithms, and architecture. Utilizing Automated ML (AutoML) technology, specifically Neural Architecture Search (NAS), we introduce a novel framework, BiaslessNAS, designed to achieve fair outcomes in analyzing skin lesion datasets. BiaslessNAS incorporates fairness considerations at every stage of the NAS process, leading to the identification of neural networks that are not only more accurate but also significantly fairer. Our experiments show that BiaslessNAS achieves a 2.55% increase in accuracy and a 65.50% improvement in fairness compared to traditional NAS methods, underscoring the importance of integrating fairness into neural network architecture for better outcomes in medical AI applications.
- Abstract(参考訳): 人工知能(AI)が私たちの日常生活にますます統合されるにつれて、フェアネスは特に医療AIにおいて重要な関心事として現れてきた。
これらのバイアスを緩和する従来のアプローチは、データ拡張と公正な学習アルゴリズムの開発に重点を置いてきた。
しかし,機械学習(ML)のコアコンポーネントであるニューラルネットワークのアーキテクチャは,公平性を確保する上で重要な役割を担っている。
公平に対処するためには,データ,アルゴリズム,アーキテクチャを同時に考慮する全体論的アプローチが効果的に必要であることを示す。
自動ML(Automated ML)技術,特にニューラルアーキテクチャサーチ(NAS)を活用して,皮膚病変データセットの解析において公正な結果を得るために設計された,新しいフレームワークであるBiaslessNASを導入する。
BiaslessNASはNASプロセスのすべての段階で公平性を考慮し、より正確であるだけでなく、より公平であるニューラルネットワークを識別する。
我々の実験は、BiaslessNASが従来のNAS手法と比較して2.55%の精度向上と65.50%の公正性向上を実現し、医療AIアプリケーションにおいてより良い結果を得るために、ニューラルネットワークアーキテクチャに公正性を統合することの重要性を強調している。
関連論文リスト
- Last-Layer Fairness Fine-tuning is Simple and Effective for Neural
Networks [36.182644157139144]
我々は、公正なニューラルネットワークを効率的かつ安価に訓練するためのフレームワークを開発する。
最後の層微細チューニングだけでは、ディープニューラルネットワークの公平性を効果的に促進できる。
論文 参考訳(メタデータ) (2023-04-08T06:49:15Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Probabilistic Verification of Neural Networks Against Group Fairness [21.158245095699456]
本稿では,ニューラルネットワークの公正性に対する公式な検証手法を提案する。
提案手法は,ユーザが提供するニューラルネットワークからマルコフ連鎖を学習するためのアプローチに基づいている。
分析の結果、神経重みは公平性を改善するために最適化できることが実証された。
論文 参考訳(メタデータ) (2021-07-18T04:34:31Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Federated Neural Architecture Search [19.573780215917477]
我々は、フェデレートニューラルアーキテクチャサーチと呼ばれる新しいDNNトレーニングパラダイムとして、分散トレーニングへの自動ニューラルアーキテクチャサーチを提案する。
我々は、効率的なフェデレーションNASのための高度に最適化されたフレームワークであるFedNASを提案する。
大規模なデータセットと典型的なCNNアーキテクチャでテストされたFedNASは、最先端NASアルゴリズムと同等のモデル精度を達成している。
論文 参考訳(メタデータ) (2020-02-15T10:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。