論文の概要: On The Fairness Impacts of Hardware Selection in Machine Learning
- arxiv url: http://arxiv.org/abs/2312.03886v1
- Date: Wed, 6 Dec 2023 20:24:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 16:51:18.208623
- Title: On The Fairness Impacts of Hardware Selection in Machine Learning
- Title(参考訳): 機械学習におけるハードウェア選択の公平性について
- Authors: Sree Harsha Nelaturu, Nishaanth Kanna Ravichandran, Cuong Tran, Sara
Hooker, Ferdinando Fioretto
- Abstract要約: 本稿では,ハードウェアがモデル性能と公平性の微妙なバランスに与える影響について検討する。
ハードウェアの選択が既存の格差を悪化させる可能性を示し、これらの相違は、異なる階層群間での勾配流と損失面の変化に起因することを示した。
- 参考スコア(独自算出の注目度): 50.03224106965757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the machine learning ecosystem, hardware selection is often regarded as a
mere utility, overshadowed by the spotlight on algorithms and data. This
oversight is particularly problematic in contexts like ML-as-a-service
platforms, where users often lack control over the hardware used for model
deployment. How does the choice of hardware impact generalization properties?
This paper investigates the influence of hardware on the delicate balance
between model performance and fairness. We demonstrate that hardware choices
can exacerbate existing disparities, attributing these discrepancies to
variations in gradient flows and loss surfaces across different demographic
groups. Through both theoretical and empirical analysis, the paper not only
identifies the underlying factors but also proposes an effective strategy for
mitigating hardware-induced performance imbalances.
- Abstract(参考訳): 機械学習のエコシステムでは、ハードウェアの選択は単なるユーティリティと見なされ、アルゴリズムやデータのスポットライトに隠れている。
この監視は、ML-as-a-serviceプラットフォームのようなコンテキストにおいて特に問題となる。
ハードウェアの選択は一般化特性にどのように影響するか?
本稿では,ハードウェアがモデル性能と公平性の微妙なバランスに及ぼす影響について検討する。
ハードウェアの選択が既存の格差を悪化させる可能性を示し、これらの相違は、異なる階層群間での勾配流と損失面の変化に起因することを示した。
理論的および実証的分析の両面から,本論文はハードウェアによる性能不均衡を緩和するための効果的な戦略を提案する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Enhancing Hardware Fault Tolerance in Machines with Reinforcement Learning Policy Gradient Algorithms [2.473948454680334]
強化学習に基づくロボット制御は、ハードウェアフォールトトレランスを達成するための新しい視点を提供する。
本稿では,2つの最先端強化学習アルゴリズム,PPO(Proximal Policy Optimization)とSAC(Soft Actor-Critic)の可能性について検討する。
我々は,PPOがモデル内の知識を保持する際に最も高速な適応を示すのに対し,SACは獲得した知識を全て捨てるときに最善であることを示す。
論文 参考訳(メタデータ) (2024-07-21T22:24:16Z) - Fair Mixed Effects Support Vector Machine [0.0]
機械学習の公正性は、トレーニングデータに存在するバイアスを緩和し、不完全性をモデル化することを目的としている。
これは、モデルが民族性や性的指向といった繊細な特徴に基づいて決定するのを防ぐことで達成される。
両問題を同時に処理できるベクターマシンアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-10T12:25:06Z) - The Grand Illusion: The Myth of Software Portability and Implications
for ML Progress [4.855502010124377]
我々は、さまざまなハードウェアタイプにわたるメインストリームMLフレームワークのポータビリティについて、大規模な研究を行っている。
フレームワークは他のハードウェアに移植すると、主要な機能の40%以上を失う可能性がある。
この結果から,ハードウェアの専門化が機械学習研究のイノベーションを妨げることが示唆された。
論文 参考訳(メタデータ) (2023-09-12T22:11:55Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Ising machines as hardware solvers of combinatorial optimization
problems [1.8732539895890135]
イジングマシンは、アイジングモデルの絶対的あるいは近似的な基底状態を見つけることを目的としたハードウェアソルバである。
既存の標準デジタルコンピュータより優れたスケーラブルなIsingマシンは、実用アプリケーションに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2022-04-01T08:24:06Z) - HardVis: Visual Analytics to Handle Instance Hardness Using Undersampling and Oversampling Techniques [48.82319198853359]
HardVisは、主に不均衡な分類シナリオでインスタンスの硬さを処理するために設計されたビジュアル分析システムである。
ユーザはさまざまな視点からデータのサブセットを探索して、これらのパラメータをすべて決定できる。
HardVisの有効性と有効性は仮説的利用シナリオとユースケースで実証される。
論文 参考訳(メタデータ) (2022-03-29T17:04:16Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Tiny, always-on and fragile: Bias propagation through design choices in
on-device machine learning workflows [8.690490406134339]
デバイス上での機械学習開発における設計選択によるバイアスの伝播について検討する。
ユーザグループ間で異なるパフォーマンスをもたらす可能性のある、複雑で対話的な技術設計の選択肢を特定します。
私たちは洞察を活用して、開発者がデバイス上でより公平なMLを開発するための戦略を提案します。
論文 参考訳(メタデータ) (2022-01-19T15:59:41Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。