論文の概要: Adversarial Scrubbing of Demographic Information for Text Classification
- arxiv url: http://arxiv.org/abs/2109.08613v1
- Date: Fri, 17 Sep 2021 15:38:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 14:41:02.272324
- Title: Adversarial Scrubbing of Demographic Information for Text Classification
- Title(参考訳): テキスト分類のためのデモグラフィック情報の逆スクレイビング
- Authors: Somnath Basu Roy Chowdhury, Sayan Ghosh, Yiyuan Li, Junier B. Oliva,
Shashank Srivastava and Snigdha Chaturvedi
- Abstract要約: 本稿では,文脈表現を曖昧にするために,逆学習フレームワーク "Adversarial Scrubber" (ADS) を提案する。
我々は,特定の条件下での人口統計情報を漏らさずに,我々の枠組みが収束していることを示す。
- 参考スコア(独自算出の注目度): 29.676274451459896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contextual representations learned by language models can often encode
undesirable attributes, like demographic associations of the users, while being
trained for an unrelated target task. We aim to scrub such undesirable
attributes and learn fair representations while maintaining performance on the
target task. In this paper, we present an adversarial learning framework
"Adversarial Scrubber" (ADS), to debias contextual representations. We perform
theoretical analysis to show that our framework converges without leaking
demographic information under certain conditions. We extend previous evaluation
techniques by evaluating debiasing performance using Minimum Description Length
(MDL) probing. Experimental evaluations on 8 datasets show that ADS generates
representations with minimal information about demographic attributes while
being maximally informative about the target task.
- Abstract(参考訳): 言語モデルによって学習される文脈表現は、しばしば望ましくない属性、例えばユーザーの人口統計学的関連をエンコードし、無関係な対象タスクのために訓練される。
このような望ましくない属性をスクラブし、ターゲットタスクのパフォーマンスを維持しながら公平な表現を学ぶことを目指している。
本稿では,文脈表現を曖昧にするために,逆学習フレームワーク "Adversarial Scrubber" (ADS) を提案する。
我々は,特定の条件下で人口統計情報を漏らさずに,枠組みが収束することを示す理論的解析を行う。
最小記述長 (mdl) 法を用いてデバイアス性能を評価することにより, 従来の評価手法を拡張する。
8つのデータセットで実験的に評価したところ、ADSはターゲットタスクについて最大限に情報を提供しながら、人口属性に関する最小限の情報で表現を生成する。
関連論文リスト
- Accurate and Data-Efficient Toxicity Prediction when Annotators Disagree [1.3749490831384268]
アノテータが同意しない場合、個々のアノテータによって与えられるラベルを予測すれば、従来のラベル集約によって見落とされたニュアンスをキャプチャすることができる。
テキストの毒性に基づいて,個々のアノテータ評価を予測するための3つのアプローチを提案する。
評価予測のための人口統計情報の有用性について検討する。
論文 参考訳(メタデータ) (2024-10-16T04:26:40Z) - Leveraging vision-language models for fair facial attribute classification [19.93324644519412]
汎用視覚言語モデル(英: General-purpose Vision-Language Model, VLM)は、共通感性属性のための豊富な知識源である。
我々は,VLM予測値と人間定義属性分布の対応関係を解析した。
複数のベンチマークの顔属性分類データセットの実験は、既存の教師なしベースラインよりもモデルの公平性の向上を示している。
論文 参考訳(メタデータ) (2024-03-15T18:37:15Z) - Capturing Pertinent Symbolic Features for Enhanced Content-Based
Misinformation Detection [0.0]
誤解を招く内容の検出は、言語的・ドメイン的多様性の極端さから、大きなハードルとなる。
本稿では,この現象を特徴付ける言語特性と,最も一般的な誤情報データセットの表現方法について分析する。
ニューラルネットワークモデルと組み合わせた関連する記号的知識の適切な利用は、誤解を招くコンテンツを検出するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-01-29T16:42:34Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Exploiting Contextual Target Attributes for Target Sentiment
Classification [53.30511968323911]
TSCの既存のPTLMベースモデルは、1)PTLMをコンテキストエンコーダとして採用した微調整ベースモデル、2)テキスト/単語生成タスクに分類タスクを転送するプロンプトベースモデル、の2つのグループに分類される。
我々は,PTLM を TSC に活用する新たな視点として,言語モデリングと文脈的ターゲット属性による明示的ターゲットコンテキスト相互作用の利点を同時に活用する。
論文 参考訳(メタデータ) (2023-12-21T11:45:28Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - DeAR: Debiasing Vision-Language Models with Additive Residuals [5.672132510411465]
大規模な事前学習型視覚言語モデル(VLM)は、リッチで適応可能な画像とテキスト表現を提供する。
これらのモデルは、トレーニングデータ中の様々なアイデンティティ群が歪んだ分布のため、社会的バイアスに悩まされる。
本稿では,元の表現をオフセットする付加的残像表現を学習する新しいデバイアス法であるDeARを提案する。
論文 参考訳(メタデータ) (2023-03-18T14:57:43Z) - Revisiting Deep Active Learning for Semantic Segmentation [37.3546941940388]
本研究では,本論文で提案する各種能動的学習目標の性能について,データ分布が決定的であることを示す。
半教師付き学習とアクティブラーニングの統合は,2つの目標が整列した際の性能向上を実証する。
論文 参考訳(メタデータ) (2023-02-08T14:23:37Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - On Guiding Visual Attention with Language Specification [76.08326100891571]
注意をそらすのではなく,タスク関連機能に分類証拠を限定するためのアドバイスとして,ハイレベルな言語仕様を用いる。
この方法で空間的注意を監督することは、偏りのあるノイズのあるデータを用いた分類タスクの性能を向上させる。
論文 参考訳(メタデータ) (2022-02-17T22:40:19Z) - CompGuessWhat?!: A Multi-task Evaluation Framework for Grounded Language
Learning [78.3857991931479]
本稿では,属性を用いたグラウンドド言語学習のための評価フレームワークGROLLAを提案する。
また、学習したニューラル表現の品質を評価するためのフレームワークの例として、新しいデータセットCompGuessWhat!?を提案する。
論文 参考訳(メタデータ) (2020-06-03T11:21:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。