論文の概要: Differential Bias: On the Perceptibility of Stance Imbalance in
Argumentation
- arxiv url: http://arxiv.org/abs/2210.06970v1
- Date: Thu, 13 Oct 2022 12:48:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 16:42:42.103176
- Title: Differential Bias: On the Perceptibility of Stance Imbalance in
Argumentation
- Title(参考訳): 差分バイアス:議論におけるスタンス不均衡の受容性について
- Authors: Alonso Palomino, Martin Potthast, Khalid Al-Khatib and Benno Stein
- Abstract要約: 絶対バイアス分類”が有望な目標かどうかを問う。
偏見のない文章と偏見のないテキストが主観的であるかどうかを判定する。
この種のバイアスモデルの前提条件は、人間がそもそも相対的なバイアスの差を知覚する能力である。
- 参考スコア(独自算出の注目度): 35.2494622378896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most research on natural language processing treats bias as an absolute
concept: Based on a (probably complex) algorithmic analysis, a sentence, an
article, or a text is classified as biased or not. Given the fact that for
humans the question of whether a text is biased can be difficult to answer or
is answered contradictory, we ask whether an "absolute bias classification" is
a promising goal at all. We see the problem not in the complexity of
interpreting language phenomena but in the diversity of sociocultural
backgrounds of the readers, which cannot be handled uniformly: To decide
whether a text has crossed the proverbial line between non-biased and biased is
subjective. By asking "Is text X more [less, equally] biased than text Y?" we
propose to analyze a simpler problem, which, by its construction, is rather
independent of standpoints, views, or sociocultural aspects. In such a model,
bias becomes a preference relation that induces a partial ordering from least
biased to most biased texts without requiring a decision on where to draw the
line. A prerequisite for this kind of bias model is the ability of humans to
perceive relative bias differences in the first place. In our research, we
selected a specific type of bias in argumentation, the stance bias, and
designed a crowdsourcing study showing that differences in stance bias are
perceptible when (light) support is provided through training or visual aid.
- Abstract(参考訳): 自然言語処理に関するほとんどの研究は、偏見を絶対的な概念として扱う:(おそらく複雑な)アルゴリズム分析に基づいて、文、記事、あるいはテキストは偏見として分類される。
人間にとって、文章に偏見があるかどうかという問題は、答えが難しいか、矛盾しているかどうかという問題を考えると、「絶対バイアス分類」が有望な目標かどうかを問う。
我々は、言語現象を解釈する複雑さではなく、読者の社会文化的背景の多様性において、一様に扱えない問題を見ている: テキストが非バイアスと偏見の間の実証的な線を越えたかどうかを決定することは主観的である。
テキストxはテキストyよりも偏っているか?」と問うことで、その構成により、むしろ視点、見解、または社会文化的側面から独立した、より単純な問題を分析することを提案する。
このようなモデルでは、バイアスは選好関係となり、線を引く場所を決定することなく、最小バイアスのテキストからほとんどのバイアスのテキストに部分順序を誘導する。
この種のバイアスモデルの前提条件は、人間がそもそも相対的なバイアスの差を知覚する能力である。
本研究では,議論における特定のタイプのバイアス,すなわちスタンスバイアスを選択し,(ライト)サポートがトレーニングや視覚支援によって提供される場合に,スタンスバイアスの違いが知覚可能であることを示すクラウドソーシング研究をデザインした。
関連論文リスト
- Eliminating the Language Bias for Visual Question Answering with fine-grained Causal Intervention [9.859335795616028]
よりきめ細かい視点から言語バイアスを排除するために,CIBiという新たな因果介入訓練手法を提案する。
我々は、文脈バイアスを排除し、マルチモーダル表現を改善するために因果介入とコントラスト学習を用いる。
我々は,キーワードバイアスを抽出・排除するために,対実生成に基づく質問専用ブランチを新たに設計する。
論文 参考訳(メタデータ) (2024-10-14T06:09:16Z) - Semantic Properties of cosine based bias scores for word embeddings [48.0753688775574]
本稿では,バイアスの定量化に有効なバイアススコアの要件を提案する。
これらの要件について,コサインに基づくスコアを文献から分析する。
これらの結果は、バイアススコアの制限がアプリケーションケースに影響を及ぼすことを示す実験で裏付けられている。
論文 参考訳(メタデータ) (2024-01-27T20:31:10Z) - Mitigating Bias for Question Answering Models by Tracking Bias Influence [84.66462028537475]
本稿では,複数選択QAモデルのバイアスを軽減するためのBMBIを提案する。
バイアスのある例から学んだ場合、モデルがよりバイアスに傾くように傾くという直感に基づいて、クエリインスタンスのバイアスレベルを測定します。
本手法は,複数のバイアスカテゴリにまたがる複数のQA定式化に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-10-13T00:49:09Z) - It's All Relative: Interpretable Models for Scoring Bias in Documents [10.678219157857946]
本稿では,テキストコンテンツのみに基づいて,Webドキュメントに存在するバイアスを評価するための解釈可能なモデルを提案する。
我々のモデルはBradley-Terryの公理を思わせる仮定を取り入れ、同じウィキペディアの記事の2つの修正に基づいて訓練されている。
我々は、訓練されたモデルのパラメータを解釈して、最も偏りを示す単語を見つけることができることを示す。
論文 参考訳(メタデータ) (2023-07-16T19:35:38Z) - Causal foundations of bias, disparity and fairness [0.0]
偏見を不当な直接的な因果効果として定義することを提案する。
偏差をバイアスを含む直接的あるいは間接的な因果効果として定義することを提案する。
提案した定義は、より厳密で体系的な方法でバイアスと格差を研究するために使用することができる。
論文 参考訳(メタデータ) (2022-07-27T17:33:04Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - The Authors Matter: Understanding and Mitigating Implicit Bias in Deep
Text Classification [36.361778457307636]
ディープテキスト分類モデルは、特定の人口統計グループの著者によって書かれたテキストのバイアス結果を生成することができます。
本論文では,異なる人口集団の異なるテキスト分類タスクに暗黙のバイアスが存在することを示す。
そして、暗黙のバイアスの知識を深めるために、学習に基づく解釈方法を構築します。
論文 参考訳(メタデータ) (2021-05-06T16:17:38Z) - UnQovering Stereotyping Biases via Underspecified Questions [68.81749777034409]
未特定質問からバイアスを探索・定量化するためのフレームワークUNQOVERを提案する。
モデルスコアの素直な使用は,2種類の推論誤差による誤ったバイアス推定につながる可能性があることを示す。
我々はこの指標を用いて、性別、国籍、民族、宗教の4つの重要なステレオタイプの分析を行う。
論文 参考訳(メタデータ) (2020-10-06T01:49:52Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。