論文の概要: When the Ground Truth is not True: Modelling Human Biases in Temporal
Annotations
- arxiv url: http://arxiv.org/abs/2302.02706v1
- Date: Mon, 6 Feb 2023 11:08:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 16:56:26.696337
- Title: When the Ground Truth is not True: Modelling Human Biases in Temporal
Annotations
- Title(参考訳): 接地真理が真でないとき--テンポラルアノテーションによる人的バイアスのモデル化
- Authors: Taku Yamagata, Emma L. Tonkin, Benjamin Arana Sanchez, Ian Craddock,
Miquel Perello Nieto, Raul Santos-Rodriguez, Weisong Yang, Peter Flach
- Abstract要約: 教師付き学習では、低い品質のアノテーションは、分類と検出モデルの性能の低下につながる。
本稿では,時間的アノテーションに基づく人間のバイアスをモデル化する手法を提案し,ソフトラベルの使用を論じる。
合成データの実験結果から, 軟質ラベルはいくつかの指標に対して, 基底の真理をよりよく近似できることがわかった。
- 参考スコア(独自算出の注目度): 4.485470697167509
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In supervised learning, low quality annotations lead to poorly performing
classification and detection models, while also rendering evaluation
unreliable. This is particularly apparent on temporal data, where annotation
quality is affected by multiple factors. For example, in the post-hoc
self-reporting of daily activities, cognitive biases are one of the most common
ingredients. In particular, reporting the start and duration of an activity
after its finalisation may incorporate biases introduced by personal time
perceptions, as well as the imprecision and lack of granularity due to time
rounding. Here we propose a method to model human biases on temporal
annotations and argue for the use of soft labels. Experimental results in
synthetic data show that soft labels provide a better approximation of the
ground truth for several metrics. We showcase the method on a real dataset of
daily activities.
- Abstract(参考訳): 教師付き学習では、低品質アノテーションは、分類と検出モデルの性能が劣ると同時に、信頼性の低い評価を行う。
これは、アノテーションの品質が複数の要因に影響される時間的データに特に顕著である。
例えば、日常活動のポストホックな自己報告では、認知バイアスが最も一般的な要素の1つである。
特に、完了後の活動の開始と継続を報告することは、個人的時間知覚によって導入されたバイアスと、時間ラウンドによる不正確さと粒度の欠如を含む可能性がある。
本稿では,時間的制約に基づく人間のバイアスをモデル化する手法を提案し,ソフトラベルの使用を論じる。
合成データの実験結果から, 軟質ラベルはいくつかの指標に対して, 基底の真理をよりよく近似できることがわかった。
本手法を日常活動の実際のデータセットに示す。
関連論文リスト
- How far can bias go? -- Tracing bias from pretraining data to alignment [54.51310112013655]
本研究では, 事前学習データにおける性別占有バイアスと, LLMにおける性別占有バイアスの相関について検討した。
その結果,事前学習データに存在するバイアスがモデル出力に増幅されることが判明した。
論文 参考訳(メタデータ) (2024-11-28T16:20:25Z) - Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Enhancing Intrinsic Features for Debiasing via Investigating Class-Discerning Common Attributes in Bias-Contrastive Pair [36.221761997349795]
ディープニューラルネットワークは、データセットバイアスの存在下でターゲットクラスと急激な相関を持つバイアス特性に依存している。
本稿では,本質的特徴の領域を示す空間的指示を明示的に提示する手法を提案する。
実験により, 種々のバイアス重大度を有する合成および実世界のデータセットに対して, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2024-04-30T04:13:14Z) - Don't Blame the Data, Blame the Model: Understanding Noise and Bias When
Learning from Subjective Annotations [9.221081428960318]
集約ラベルのみを提供するモデルでは,高分散データインスタンスに対する信頼性が低いことを示す。
本実験は, 高分解率インスタンスに対する信頼性の向上を示す。
論文 参考訳(メタデータ) (2024-03-06T22:30:04Z) - Common-Sense Bias Modeling for Classification Tasks [15.683471433842492]
テキスト記述に基づく画像データセットの包括的バイアスを抽出する新しい枠組みを提案する。
提案手法は,複数の画像ベンチマークデータセットにおける新しいモデルバイアスを明らかにする。
発見されたバイアスは、機能の非相関化のために、単純なデータ再重み付けによって緩和することができる。
論文 参考訳(メタデータ) (2024-01-24T03:56:07Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Too Good To Be True: performance overestimation in (re)current practices
for Human Activity Recognition [49.1574468325115]
データセグメンテーションのためのスライディングウィンドウと、標準のランダムk倍のクロスバリデーションが続くと、バイアスのある結果が得られる。
この問題に対する科学界の認識を高めることは重要であり、その否定的な影響は見落とされつつある。
異なるタイプのデータセットと異なるタイプの分類モデルを用いたいくつかの実験により、問題を示し、メソッドやデータセットとは独立して持続することを示すことができる。
論文 参考訳(メタデータ) (2023-10-18T13:24:05Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。