論文の概要: Measuring a Texts Fairness Dimensions Using Machine Learning Based on
Social Psychological Factors
- arxiv url: http://arxiv.org/abs/2111.00086v1
- Date: Fri, 29 Oct 2021 21:09:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 02:30:12.920418
- Title: Measuring a Texts Fairness Dimensions Using Machine Learning Based on
Social Psychological Factors
- Title(参考訳): 社会的心理的要因に基づく機械学習によるテキストの公平度測定
- Authors: A. Izzidien, J. Watson, B. Loe, P. Romero, S. Fitz, D. Stillwell
- Abstract要約: フェアネスアセスメントを行う際、心理学を用いて人間が使用する主要な要因を判断する。
単語埋め込みを多次元の文レベルフェアネス認識ベクトルにデジタイズする。
第2のアプローチは、上記のフェアネス近似ベクトルに基づくPCAとMLを使い、F1スコアは86.2である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness is a principal social value that can be observed in civilisations
around the world. A manifestations of this is in social agreements, often
described in texts, such as contracts. Yet, despite the prevalence of such, a
fairness metric for texts describing a social act remains wanting. To address
this, we take a step back to consider the problem based on first principals.
Instead of using rules or templates, we utilise social psychology literature to
determine the principal factors that humans use when making a fairness
assessment. We then attempt to digitise these using word embeddings into a
multi-dimensioned sentence level fairness perceptions vector to serve as an
approximation for these fairness perceptions. The method leverages a pro-social
bias within word embeddings, for which we obtain an F1= 81.0. A second
approach, using PCA and ML based on the said fairness approximation vector
produces an F1 score of 86.2. We details improvements that can be made in the
methodology to incorporate the projection of sentence embedding on to a
subspace representation of fairness.
- Abstract(参考訳): 公正は、世界中の文明で見られる主要な社会的価値である。
この表現は、しばしば契約などのテキストで記述される社会的合意に現れている。
しかし、そのような傾向にもかかわらず、社会行為を記述する文章の公平度基準は依然として望まれている。
この問題に対処するため、我々は第一原理に基づく問題を考えるために一歩後退する。
ルールやテンプレートを使う代わりに、社会心理学の文献を使って、公正評価を行う際に人間が使う主要な要因を判断します。
次に,多次元文レベルのフェアネス知覚ベクトルへの単語埋め込みを用いて,これらをデジタル化し,フェアネス知覚の近似化を試みる。
この方法は単語埋め込み内の社会的バイアスを利用してf1=81.0を得る。
第2のアプローチは、上記のフェアネス近似ベクトルに基づくPCAとMLを使い、F1スコアは86.2である。
フェアネスのサブスペース表現に埋め込んだ文のプロジェクションを組み込む手法として,提案手法で実現可能な改善点を詳述する。
関連論文リスト
- Subjective fairness in algorithmic decision-support [0.0]
意思決定文学におけるフェアネスの扱いは、通常客観的な尺度を用いてフェアネスを定量化する。
この研究は、社会学的洞察を用いて、これらのアプローチの限界を強調するために批判的なスタンスを取る。
我々は、トップダウンからボトムアップアプローチに移行する主観的特性として公正を再定義する。
論文 参考訳(メタデータ) (2024-06-28T14:37:39Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation [56.520470678876656]
ユーザ記述テキストに固有のバイアスは、言語品質の異なるレベルとユーザの保護された属性を関連付けることができる。
説明生成における測度特異的な対実的公正性を実現するための一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-14T02:29:10Z) - A Novel Approach to Fairness in Automated Decision-Making using
Affective Normalization [2.0178765779788495]
本研究では、感情的、社会的に偏りのある成分を測定する方法を提案し、その除去を可能にする。
つまり、意思決定のプロセスを考えると、これらの感情的測定は決定における感情的バイアスを排除し、メソッド自体によって定義されたカテゴリの集合を公平にする。
論文 参考訳(メタデータ) (2022-05-02T11:48:53Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Fairness for Whom? Understanding the Reader's Perception of Fairness in
Text Summarization [9.136419921943235]
フェアネスの概念と読者のテキスト要約における認識の相互関係について検討する。
標準的なROUGE評価指標は、要約の認識された(不公平な)性質を定量化できない。
論文 参考訳(メタデータ) (2021-01-29T05:14:34Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Machine learning fairness notions: Bridging the gap with real-world
applications [4.157415305926584]
フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
論文 参考訳(メタデータ) (2020-06-30T13:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。