論文の概要: Tiny, always-on and fragile: Bias propagation through design choices in
on-device machine learning workflows
- arxiv url: http://arxiv.org/abs/2201.07677v1
- Date: Wed, 19 Jan 2022 15:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 16:51:40.016409
- Title: Tiny, always-on and fragile: Bias propagation through design choices in
on-device machine learning workflows
- Title(参考訳): Tiny, always-on, fragile: デバイス上の機械学習ワークフローの設計選択によるバイアス伝搬
- Authors: Wiebke Toussaint, Akhil Mathur, Aaron Yi Ding, Fahim Kawsar
- Abstract要約: デバイス上での機械学習開発における設計選択によるバイアスの伝播について検討する。
ユーザグループ間で異なるパフォーマンスをもたらす可能性のある、複雑で対話的な技術設計の選択肢を特定します。
私たちは洞察を活用して、開発者がデバイス上でより公平なMLを開発するための戦略を提案します。
- 参考スコア(独自算出の注目度): 8.690490406134339
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Billions of distributed, heterogeneous and resource constrained smart
consumer devices deploy on-device machine learning (ML) to deliver private,
fast and offline inference on personal data. On-device ML systems are highly
context dependent, and sensitive to user, usage, hardware and environmental
attributes. Despite this sensitivity and the propensity towards bias in ML,
bias in on-device ML has not been studied. This paper studies the propagation
of bias through design choices in on-device ML development workflows. We
position \emph{reliablity bias}, which arises from disparate device failures
across demographic groups, as a source of unfairness in on-device ML settings
and quantify metrics to evaluate it. We then identify complex and interacting
technical design choices in the on-device ML workflow that can lead to
disparate performance across user groups, and thus \emph{reliability bias}.
Finally, we show with an empirical case study that seemingly innocuous design
choices such as the data sample rate, pre-processing parameters used to
construct input features and pruning hyperparameters propagate
\emph{reliability bias} through an audio keyword spotting development workflow.
We leverage our insights to suggest strategies for developers to develop fairer
on-device ML.
- Abstract(参考訳): 何十億もの分散、異質、リソースに制約のあるスマートコンシューマデバイスがデバイス上で機械学習(ML)をデプロイし、個人データに対してプライベート、高速、オフラインの推論を提供する。
オンデバイスMLシステムは、コンテキスト依存性が高く、ユーザ、使用状況、ハードウェア、環境属性に敏感である。
この感度とMLのバイアスに対する妥当性にもかかわらず、オンデバイスMLのバイアスは研究されていない。
本稿では、デバイス上でのML開発ワークフローにおける設計選択によるバイアスの伝播について検討する。
我々は、デバイス上のML設定における不公平性の源として、人口集団間で異なるデバイス障害から生じる「emph{reliablity bias}」を位置づけ、メトリクスを評価して評価する。
次に、ユーザグループ間で異なるパフォーマンスをもたらすことができるオンデバイスMLワークフローにおける、複雑で対話的な技術設計の選択を特定します。
最後に,音声キーワードスポッティング開発ワークフローを通じて,データサンプル率,入力特徴の構築に使用される前処理パラメータ,ハイパーパラメータのpruningなど,一見無作為な設計選択が<emph{reliability bias} を伝搬することを示す。
私たちは洞察を活用して、開発者がデバイス上でより公平なMLを開発するための戦略を提案します。
関連論文リスト
- A Systematic Review of Machine Learning Approaches for Detecting Deceptive Activities on Social Media: Methods, Challenges, and Biases [0.037693031068634524]
本稿では、機械学習(ML)モデルとディープラーニング(DL)モデルを用いて、ソーシャルメディア上の偽ニュース、スパム、偽アカウントを検出する研究を体系的に評価する。
論文 参考訳(メタデータ) (2024-10-26T23:55:50Z) - Improved Diversity-Promoting Collaborative Metric Learning for Recommendation [127.08043409083687]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T07:44:48Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - On-device Online Learning and Semantic Management of TinyML Systems [8.183732025472766]
本研究の目的は,単一TinyMLモデルのプロトタイピングと信頼性の高いTinyMLシステムの開発のギャップを埋めることである。
我々は,制約のあるデバイス上でのトレーニングを可能にするオンライン学習を提案し,最新のフィールド条件に局所モデルを適用する。
モデルとデバイスを大規模に管理するためのセマンティックマネジメントを提案する。
論文 参考訳(メタデータ) (2024-05-13T10:03:34Z) - Active Inference on the Edge: A Design Study [5.815300670677979]
アクティブ推論(アクティブ推論、英: Active Inference、ACI)とは、脳が知覚情報を常に予測し評価し、長期的サプライズを減らす方法を記述する神経科学の概念である。
我々は,ACIエージェントが要求を満たすことなく,最適化問題を迅速かつ追跡的に解決できたことを示す。
論文 参考訳(メタデータ) (2023-11-17T16:03:04Z) - Closing the loop: Autonomous experiments enabled by
machine-learning-based online data analysis in synchrotron beamline
environments [80.49514665620008]
機械学習は、大規模または高速に生成されたデータセットを含む研究を強化するために使用できる。
本研究では,X線反射法(XRR)のための閉ループワークフローへのMLの導入について述べる。
本研究では,ビームライン制御ソフトウェア環境に付加的なソフトウェア依存関係を導入することなく,実験中の基本データ解析をリアルタイムで行うソリューションを提案する。
論文 参考訳(メタデータ) (2023-06-20T21:21:19Z) - Task-Oriented Over-the-Air Computation for Multi-Device Edge AI [57.50247872182593]
エッジAIをサポートするための6Gネットワークは、AIタスクの効率的かつ効率的な実行に焦点を当てたタスク指向のテクニックを備えている。
本稿では,マルチデバイススプリット推論システムにおけるタスク指向オーバー・ザ・エア計算(AirComp)方式を提案する。
論文 参考訳(メタデータ) (2022-11-02T16:35:14Z) - Federated Split GANs [12.007429155505767]
ユーザデバイス自体でMLモデルをトレーニングするための代替手法を提案する。
我々は、GAN(ジェネレーティブ・逆境ネットワーク)に注目し、その固有のプライバシー保護属性を活用する。
我々のシステムはデータのプライバシを保ち、短時間のトレーニング時間を保ち、制約のないデバイスで同じ精度でモデルトレーニングを行う。
論文 参考訳(メタデータ) (2022-07-04T23:53:47Z) - Task-Oriented Sensing, Computation, and Communication Integration for
Multi-Device Edge AI [108.08079323459822]
本稿では,AIモデルの分割推論と統合センシング通信(ISAC)を併用した,新しいマルチインテリジェントエッジ人工レイテンシ(AI)システムについて検討する。
推定精度は近似的だが抽出可能な計量、すなわち判別利得を用いて測定する。
論文 参考訳(メタデータ) (2022-07-03T06:57:07Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - LiFT: A Scalable Framework for Measuring Fairness in ML Applications [18.54302159142362]
本稿では、大規模なMLシステムの一部として、フェアネスメトリクスのスケーラブルな計算のためのフレームワークであるLinkedIn Fairness Toolkit(LiFT)を紹介する。
フェアネスツールを実際に導入する際の課題と、LinkedInでのデプロイメント中に学んだ教訓について論じる。
論文 参考訳(メタデータ) (2020-08-14T03:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。