論文の概要: Uncovering Bias in Personal Informatics
- arxiv url: http://arxiv.org/abs/2303.15592v2
- Date: Wed, 19 Jul 2023 15:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 17:24:53.215605
- Title: Uncovering Bias in Personal Informatics
- Title(参考訳): 個人情報学におけるバイアスの解明
- Authors: Sofia Yfantidou, Pavlos Sermpezis, Athena Vakali, Ricardo Baeza-Yates
- Abstract要約: 本稿では,個人情報学(PI)システムにおけるバイアスの包括的および分析的研究について紹介する。
これまでで最も詳細なフレームワークを使用して、さまざまなバイアス源を探索し、データ生成とモデル学習と実装ストリームの両方にバイアスが存在することを見つけました。
その結果, 糖尿病, 関節症, 高血圧などの健康上の問題を持つユーザ, 女性ユーザが最も影響を受けやすいグループとなった。
- 参考スコア(独自算出の注目度): 5.01223893073719
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personal informatics (PI) systems, powered by smartphones and wearables,
enable people to lead healthier lifestyles by providing meaningful and
actionable insights that break down barriers between users and their health
information. Today, such systems are used by billions of users for monitoring
not only physical activity and sleep but also vital signs and women's and heart
health, among others. Despite their widespread usage, the processing of
sensitive PI data may suffer from biases, which may entail practical and
ethical implications. In this work, we present the first comprehensive
empirical and analytical study of bias in PI systems, including biases in raw
data and in the entire machine learning life cycle. We use the most detailed
framework to date for exploring the different sources of bias and find that
biases exist both in the data generation and the model learning and
implementation streams. According to our results, the most affected minority
groups are users with health issues, such as diabetes, joint issues, and
hypertension, and female users, whose data biases are propagated or even
amplified by learning models, while intersectional biases can also be observed.
- Abstract(参考訳): スマートフォンとウェアラブルを駆使した個人情報システム(PI)は、ユーザと健康情報の間の障壁を壊す有意義で行動可能な洞察を提供することによって、より健康的なライフスタイルをリードすることができる。
現在、こうしたシステムは何十億ものユーザーが身体活動や睡眠だけでなく、バイタルサインや女性の健康状態などを監視するために使われている。
広く使われているにもかかわらず、繊細なpiデータの処理にはバイアスがあり、実用的かつ倫理的な影響が伴う可能性がある。
本稿では,piシステムにおけるバイアスの包括的経験的および分析的研究として,生データおよび機械学習ライフサイクル全体におけるバイアスについて述べる。
これまでで最も詳細なフレームワークを使用して、さまざまなバイアス源を探索し、データ生成とモデル学習と実装ストリームの両方にバイアスが存在することを見つけました。
以上の結果から,糖尿病,関節症,高血圧症などの健康上の問題のあるユーザと,データバイアスが学習モデルによって伝播あるいは増幅される女性であり,交叉バイアスも観察できることがわかった。
関連論文リスト
- Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Targeted Data Augmentation for bias mitigation [0.0]
我々は、TDA(Targeted Data Augmentation)と呼ばれるバイアスに対処するための、新しく効率的なアプローチを導入する。
バイアスを除去する面倒な作業とは異なり、本手法は代わりにバイアスを挿入することを提案し、結果として性能が向上する。
偏見を特定するために,臨床皮膚病変のデータセットと男女の顔のデータセットの2つの多様なデータセットを注釈した。
論文 参考訳(メタデータ) (2023-08-22T12:25:49Z) - Data Bias Management [17.067962372238135]
私たちは、データのバイアスがエンドユーザに与える影響、バイアスの発生源、そして、その上で何をすべきかという視点を示します。
データバイアスは、すべてのケースにおいて必ずしも取り除くべきものではなく、代わりに研究の注意がバイアス除去からバイアス管理に移行するべきだ、と私たちは主張する。
論文 参考訳(メタデータ) (2023-05-15T10:07:27Z) - Fairness in Machine Learning meets with Equity in Healthcare [6.842248432925292]
本研究では,データやモデルのバイアスを識別・緩和する人工知能フレームワークを提案する。
ケーススタディでは、データの体系的バイアスがモデル予測における増幅バイアスにどのように寄与するかを示す。
今後の研究は、提案するMLフレームワークを実世界の臨床環境でテストし、検証することを目的としており、その影響が健康株の促進に与える影響を評価する。
論文 参考訳(メタデータ) (2023-05-11T14:25:34Z) - Investigating Bias with a Synthetic Data Generator: Empirical Evidence
and Philosophical Interpretation [66.64736150040093]
機械学習の応用は、私たちの社会でますます広まりつつある。
リスクは、データに埋め込まれたバイアスを体系的に広めることである。
本稿では,特定の種類のバイアスとその組み合わせで合成データを生成するフレームワークを導入することにより,バイアスを分析することを提案する。
論文 参考訳(メタデータ) (2022-09-13T11:18:50Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Biases in human mobility data impact epidemic modeling [0.0]
携帯電話の不正アクセスと不平等使用による2種類のバイアスを同定する。
我々は、高重量個体が過剰に表現されているすべての調査データセットにおいて、データ生成バイアスの証拠を見つける。
このスキューを緩和するために、データをデバイアスするフレームワークを提案し、代表性を高めるためにいかに簡単なテクニックが使えるかを示す。
論文 参考訳(メタデータ) (2021-12-23T13:20:54Z) - REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets [64.76453161039973]
REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
論文 参考訳(メタデータ) (2020-04-16T23:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。