論文の概要: The Larger The Fairer? Small Neural Networks Can Achieve Fairness for
Edge Devices
- arxiv url: http://arxiv.org/abs/2202.11317v1
- Date: Wed, 23 Feb 2022 05:26:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 01:12:57.407894
- Title: The Larger The Fairer? Small Neural Networks Can Achieve Fairness for
Edge Devices
- Title(参考訳): 妖精が大きければ大きいほど?
エッジデバイスの公正性を達成できる小さなニューラルネットワーク
- Authors: Yi Sheng, Junhuan Yang, Yawen Wu, Kevin Mao, Yiyu Shi, Jingtong Hu,
Weiwen Jiang, Lei Yang
- Abstract要約: フェアネスに関する懸念は、顔認識やモバイル医療など、多くのアプリケーションで徐々に現れている。
本研究は、Fairness- and Hardware-aware Neural Architecture Searchフレームワーク、すなわちFaHaNaを提案する。
FaHaNaは皮膚科学データセット上で、より公平で精度の高い一連のニューラルネットワークを識別できることを示す。
- 参考スコア(独自算出の注目度): 16.159547410954602
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Along with the progress of AI democratization, neural networks are being
deployed more frequently in edge devices for a wide range of applications.
Fairness concerns gradually emerge in many applications, such as face
recognition and mobile medical. One fundamental question arises: what will be
the fairest neural architecture for edge devices? By examining the existing
neural networks, we observe that larger networks typically are fairer. But,
edge devices call for smaller neural architectures to meet hardware
specifications. To address this challenge, this work proposes a novel Fairness-
and Hardware-aware Neural architecture search framework, namely FaHaNa. Coupled
with a model freezing approach, FaHaNa can efficiently search for neural
networks with balanced fairness and accuracy, while guaranteed to meet hardware
specifications. Results show that FaHaNa can identify a series of neural
networks with higher fairness and accuracy on a dermatology dataset. Target
edge devices, FaHaNa finds a neural architecture with slightly higher accuracy,
5.28x smaller size, 15.14% higher fairness score, compared with MobileNetV2;
meanwhile, on Raspberry PI and Odroid XU-4, it achieves 5.75x and 5.79x
speedup.
- Abstract(参考訳): aiの民主化の進展とともに、ニューラルネットワークは幅広いアプリケーションのためにエッジデバイスに頻繁に展開されている。
顔認識やモバイル医療など、多くのアプリケーションでフェアネスの懸念が徐々に現れています。
エッジデバイスにとって最も公平なニューラルアーキテクチャは何か?
既存のニューラルネットワークを調べることで、より大きなネットワークが通常より公平であることを確認する。
しかし、エッジデバイスはハードウェア仕様を満たすためにより小さなニューラルアーキテクチャを要求する。
この課題に対処するために、Fairnessand Hardware-aware Neural Architecture Searchフレームワーク、すなわちFaHaNaを提案する。
モデル凍結アプローチと組み合わせることで、ファハナはハードウェア仕様を満たしながら、公平性と正確性をバランスよくニューラルネットワークを効率的に探索することができる。
その結果、FaHaNaは皮膚科学データセット上で、より公平で精度の高い一連のニューラルネットワークを識別できることがわかった。
FaHaNaがターゲットとするエッジデバイスは、MobileNetV2と比較して、わずかに精度が良く、5.28倍、サイズが15.14%高く、一方Raspberry PIとOdroid XU-4では5.75倍、そして5.79倍のスピードアップを実現している。
関連論文リスト
- SqueezerFaceNet: Reducing a Small Face Recognition CNN Even More Via
Filter Pruning [55.84746218227712]
我々は,100万パラメータ未満の軽量顔認識ネットワークであるSqueezerFaceNetを開発した。
性能を損なうことなく、さらに(最大40%)削減できることを示す。
論文 参考訳(メタデータ) (2023-07-20T08:38:50Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - CondenseNeXt: An Ultra-Efficient Deep Neural Network for Embedded
Systems [0.0]
畳み込みニューラルネットワーク(英: Convolutional Neural Network, CNN)は、画像センサが捉えた視覚画像の分析に広く用いられているディープニューラルネットワーク(DNN)のクラスである。
本稿では,組込みシステム上でのリアルタイム推論のために,既存のCNNアーキテクチャの性能を改善するために,深層畳み込みニューラルネットワークアーキテクチャの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:20:52Z) - Profiling Neural Blocks and Design Spaces for Mobile Neural Architecture
Search [21.48915618572691]
Once-for-All(MobileNetV3)、ProxylessNAS、ResNetファミリを構築するために使用されるニューラルネットワークブロックを分析する。
探索空間を縮小した検索は、元の検索空間を探索するよりも、精度の高いレイテンシフロンティアを生成することを示す。
論文 参考訳(メタデータ) (2021-09-25T19:34:45Z) - Binary Neural Network for Speaker Verification [13.472791713805762]
本稿では,二元的ニューラルネットワークを話者検証の課題に適用する方法に焦点をあてる。
実験の結果、Convolutional Neural Networkをバイナライズした後、ResNet34ベースのネットワークは約5%のEERを達成した。
論文 参考訳(メタデータ) (2021-04-06T06:04:57Z) - Neural Architecture Search on ImageNet in Four GPU Hours: A
Theoretically Inspired Perspective [88.39981851247727]
トレーニングフリーニューラルアーキテクチャサーチ(TE-NAS)という新しいフレームワークを提案する。
TE-NASは、ニューラルネットワークカーネル(NTK)のスペクトルと入力空間内の線形領域の数を分析することによってアーキテクチャをランク付けする。
1) この2つの測定はニューラルネットワークのトレーサビリティと表現性を示し, (2) ネットワークのテスト精度と強く相関することを示した。
論文 参考訳(メタデータ) (2021-02-23T07:50:44Z) - Benchmarking Quantized Neural Networks on FPGAs with FINN [0.42439262432068253]
精度を下げるには、精度の低下を無視するコストがかかる。
本稿では、FPGA上にデプロイされたニューラルネットワークに適用した場合の混合精度の影響を評価することを目的とする。
論文 参考訳(メタデータ) (2021-02-02T06:42:07Z) - AttendNets: Tiny Deep Image Recognition Neural Networks for the Edge via
Visual Attention Condensers [81.17461895644003]
我々は、オンデバイス画像認識に適した、低精度でコンパクトなディープニューラルネットワークであるAttendNetsを紹介する。
AttendNetsは、視覚的注意の凝縮に基づく深い自己注意アーキテクチャを持っている。
その結果、AttendNetsは、いくつかのディープニューラルネットワークと比較して、アーキテクチャと計算の複雑さが著しく低いことが示された。
論文 参考訳(メタデータ) (2020-09-30T01:53:17Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - A Power-Efficient Binary-Weight Spiking Neural Network Architecture for
Real-Time Object Classification [1.5291703721641183]
エッジプラットフォーム上での低消費電力リアルタイムオブジェクト分類のための二元重スパイクニューラルネットワーク(BW-SNN)ハードウェアアーキテクチャを提案する。
この設計では、完全なニューラルネットワークをオンチップに格納するので、オフチップの帯域幅を必要としない。
論文 参考訳(メタデータ) (2020-03-12T11:25:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。