論文の概要: When the Ground Truth is not True: Modelling Human Biases in Temporal
Annotations
- arxiv url: http://arxiv.org/abs/2302.02706v1
- Date: Mon, 6 Feb 2023 11:08:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 16:56:26.696337
- Title: When the Ground Truth is not True: Modelling Human Biases in Temporal
Annotations
- Title(参考訳): 接地真理が真でないとき--テンポラルアノテーションによる人的バイアスのモデル化
- Authors: Taku Yamagata, Emma L. Tonkin, Benjamin Arana Sanchez, Ian Craddock,
Miquel Perello Nieto, Raul Santos-Rodriguez, Weisong Yang, Peter Flach
- Abstract要約: 教師付き学習では、低い品質のアノテーションは、分類と検出モデルの性能の低下につながる。
本稿では,時間的アノテーションに基づく人間のバイアスをモデル化する手法を提案し,ソフトラベルの使用を論じる。
合成データの実験結果から, 軟質ラベルはいくつかの指標に対して, 基底の真理をよりよく近似できることがわかった。
- 参考スコア(独自算出の注目度): 4.485470697167509
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In supervised learning, low quality annotations lead to poorly performing
classification and detection models, while also rendering evaluation
unreliable. This is particularly apparent on temporal data, where annotation
quality is affected by multiple factors. For example, in the post-hoc
self-reporting of daily activities, cognitive biases are one of the most common
ingredients. In particular, reporting the start and duration of an activity
after its finalisation may incorporate biases introduced by personal time
perceptions, as well as the imprecision and lack of granularity due to time
rounding. Here we propose a method to model human biases on temporal
annotations and argue for the use of soft labels. Experimental results in
synthetic data show that soft labels provide a better approximation of the
ground truth for several metrics. We showcase the method on a real dataset of
daily activities.
- Abstract(参考訳): 教師付き学習では、低品質アノテーションは、分類と検出モデルの性能が劣ると同時に、信頼性の低い評価を行う。
これは、アノテーションの品質が複数の要因に影響される時間的データに特に顕著である。
例えば、日常活動のポストホックな自己報告では、認知バイアスが最も一般的な要素の1つである。
特に、完了後の活動の開始と継続を報告することは、個人的時間知覚によって導入されたバイアスと、時間ラウンドによる不正確さと粒度の欠如を含む可能性がある。
本稿では,時間的制約に基づく人間のバイアスをモデル化する手法を提案し,ソフトラベルの使用を論じる。
合成データの実験結果から, 軟質ラベルはいくつかの指標に対して, 基底の真理をよりよく近似できることがわかった。
本手法を日常活動の実際のデータセットに示す。
関連論文リスト
- Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Enhancing Intrinsic Features for Debiasing via Investigating Class-Discerning Common Attributes in Bias-Contrastive Pair [36.221761997349795]
ディープニューラルネットワークは、データセットバイアスの存在下でターゲットクラスと急激な相関を持つバイアス特性に依存している。
本稿では,本質的特徴の領域を示す空間的指示を明示的に提示する手法を提案する。
実験により, 種々のバイアス重大度を有する合成および実世界のデータセットに対して, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2024-04-30T04:13:14Z) - Don't Blame the Data, Blame the Model: Understanding Noise and Bias When
Learning from Subjective Annotations [9.221081428960318]
集約ラベルのみを提供するモデルでは,高分散データインスタンスに対する信頼性が低いことを示す。
本実験は, 高分解率インスタンスに対する信頼性の向上を示す。
論文 参考訳(メタデータ) (2024-03-06T22:30:04Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Too Good To Be True: performance overestimation in (re)current practices
for Human Activity Recognition [49.1574468325115]
データセグメンテーションのためのスライディングウィンドウと、標準のランダムk倍のクロスバリデーションが続くと、バイアスのある結果が得られる。
この問題に対する科学界の認識を高めることは重要であり、その否定的な影響は見落とされつつある。
異なるタイプのデータセットと異なるタイプの分類モデルを用いたいくつかの実験により、問題を示し、メソッドやデータセットとは独立して持続することを示すことができる。
論文 参考訳(メタデータ) (2023-10-18T13:24:05Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Systematic Evaluation of Predictive Fairness [60.0947291284978]
バイアス付きデータセットのトレーニングにおけるバイアスの緩和は、重要なオープンな問題である。
複数のタスクにまたがる様々なデバイアス化手法の性能について検討する。
データ条件が相対モデルの性能に強い影響を与えることがわかった。
論文 参考訳(メタデータ) (2022-10-17T05:40:13Z) - Annotation Error Detection: Analyzing the Past and Present for a More
Coherent Future [63.99570204416711]
我々は、潜在的なアノテーションの誤りを検知するための18の手法を再実装し、9つの英語データセット上で評価する。
アノテーションエラー検出タスクの新しい形式化を含む一様評価設定を定義する。
私たちはデータセットと実装を,使いやすく,オープンソースのソフトウェアパッケージとしてリリースしています。
論文 参考訳(メタデータ) (2022-06-05T22:31:45Z) - Less Learn Shortcut: Analyzing and Mitigating Learning of Spurious
Feature-Label Correlation [44.319739489968164]
ディープニューラルネットワークは、タスクを理解するのではなく、意思決定をするためのショートカットとしてデータセットバイアスを取ることが多い。
本研究では,モデルがバイアスデータ分布から学習する単語特徴とラベルとの素早い相関に着目した。
本手法は, 偏りのある例と下級者の偏り度を定量的に評価する学習戦略である。
論文 参考訳(メタデータ) (2022-05-25T09:08:35Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。