論文の概要: Is There a One-Model-Fits-All Approach to Information Extraction? Revisiting Task Definition Biases
- arxiv url: http://arxiv.org/abs/2403.16396v1
- Date: Mon, 25 Mar 2024 03:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 16:07:18.779252
- Title: Is There a One-Model-Fits-All Approach to Information Extraction? Revisiting Task Definition Biases
- Title(参考訳): 情報抽出への一モデル全アプローチは存在するか? : タスク定義バイアスの再検討
- Authors: Wenhao Huang, Qianyu He, Zhixu Li, Jiaqing Liang, Yanghua Xiao,
- Abstract要約: 定義バイアスは、モデルを誤解させる可能性のある負の現象である。
IEでは、情報抽出データセット間のバイアスと、情報抽出データセットとインストラクションチューニングデータセット間のバイアスの2つの定義バイアスを識別する。
本稿では, 定義バイアス測定, バイアス対応微調整, タスク固有バイアス緩和からなる多段階フレームワークを提案する。
- 参考スコア(独自算出の注目度): 62.806300074459116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Definition bias is a negative phenomenon that can mislead models. Definition bias in information extraction appears not only across datasets from different domains but also within datasets sharing the same domain. We identify two types of definition bias in IE: bias among information extraction datasets and bias between information extraction datasets and instruction tuning datasets. To systematically investigate definition bias, we conduct three probing experiments to quantitatively analyze it and discover the limitations of unified information extraction and large language models in solving definition bias. To mitigate definition bias in information extraction, we propose a multi-stage framework consisting of definition bias measurement, bias-aware fine-tuning, and task-specific bias mitigation. Experimental results demonstrate the effectiveness of our framework in addressing definition bias. Resources of this paper can be found at https://github.com/EZ-hwh/definition-bias
- Abstract(参考訳): 定義バイアスは、モデルを誤解させる可能性のある負の現象である。
情報抽出における定義バイアスは、異なるドメインからのデータセットだけでなく、同じドメインを共有するデータセットにも現れる。
IEでは、情報抽出データセット間のバイアスと、情報抽出データセットとインストラクションチューニングデータセット間のバイアスの2つの定義バイアスを識別する。
定義バイアスを体系的に研究するために,3つの探索実験を行い,その定量的解析を行い,定義バイアスの解法における統合情報抽出と大規模言語モデルの限界を明らかにする。
本稿では,情報抽出における定義バイアスを軽減するために,定義バイアス測定,バイアスを考慮した微調整,タスク固有のバイアス軽減からなる多段階フレームワークを提案する。
実験の結果,定義バイアスに対処するための枠組みの有効性が示された。
本論文の資料はhttps://github.com/EZ-hwh/definition-biasで見ることができる。
関連論文リスト
- Looking at Model Debiasing through the Lens of Anomaly Detection [11.113718994341733]
ディープニューラルネットワークはデータのバイアスに敏感である。
本稿では,異常検出に基づく新しいバイアス同定手法を提案する。
合成および実際のベンチマークデータセット上で、最先端のパフォーマンスに到達する。
論文 参考訳(メタデータ) (2024-07-24T17:30:21Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Discover and Mitigate Unknown Biases with Debiasing Alternate Networks [42.89260385194433]
本稿では,Debiasing Alternate Networks (DebiAN)を提案する。
DebiANは、発見者によって特定されるバイアスをアンラーニングすることを目的としている。
従来の研究では、偏りを1つのバイアスで評価するが、マルチカラーMNISTデータセットを作成し、複数のバイアスのベンチマーク緩和を改善する。
論文 参考訳(メタデータ) (2022-07-20T17:59:51Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - Intrinsic Bias Identification on Medical Image Datasets [9.054785751150547]
まず、データ固有のバイアス属性を定義し、次いで、医用画像データセットのための新しいバイアス識別フレームワークを提案する。
このフレームワークには、KlotskiNetとBias Discriminant Direction Analysis(bdda)という2つの主要なコンポーネントが含まれている。
3つのデータセットの実験結果から,フレームワークが検出したバイアス特性の有効性が示された。
論文 参考訳(メタデータ) (2022-03-24T06:28:07Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。