論文の概要: The Golden Rule as a Heuristic to Measure the Fairness of Texts Using
Machine Learning
- arxiv url: http://arxiv.org/abs/2111.00107v1
- Date: Fri, 29 Oct 2021 22:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 02:07:14.117824
- Title: The Golden Rule as a Heuristic to Measure the Fairness of Texts Using
Machine Learning
- Title(参考訳): 機械学習によるテキストの公平性測定のためのヒューリスティックとしての黄金律
- Authors: A. Izzidien, J. Watson, B. Loe, P. Romero, S. Fitz, D. Stillwell
- Abstract要約: ゴールデン・ルール(Golden Rule, GR)は、他者を扱いたいと考える道徳哲学の定式化である。
歴史を通じて公理として流行しているが、黄金律のデジタル化は存在しない。
例えば、男の子が少女を傷つけ、それらを公平または不公平と分類するなどである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To treat others as one would wish to be treated is a common formulation of
the Golden Rule (GR). Yet, despite its prevalence as an axiom throughout
history, no digitisation of the moral philosophy exists. In this paper we
consider how to digitise it so that it may be used to measure sentences such
as: the boy harmed the girl, and categorise them as fair or unfair. A review
and reply to criticisms of the GR is made. We share the code for the
digitisation of the GR, and test it with a list of sentences. Implementing two
approaches, one using the USE, and a second using ALBERT. We find F1 scores of
78.0, 85.0, respectively. A suggestion of how the technology may be implemented
to avoid unfair biases in word embeddings is made - given that individuals
would typically not wish to be on the receiving end of an unfair act, such as
racism, irrespective of whether the corpus being used deems such discrimination
as praiseworthy.
- Abstract(参考訳): 他者を治療対象として扱うことは、黄金規則(GR)の共通の定式化である。
しかし、歴史を通じて公理として普及しているにもかかわらず、道徳哲学のデジタル化は存在しない。
本稿では,「少年が少女を傷つけ,公平か不公平かを分類する」などの文を計測するために,デジタル化する方法について検討する。
GRに対する批判に対するレビューと回答を行う。
GRのデジタル化のためのコードを共有し、文のリストでそれをテストします。
1つはUSEを使い、もう1つはALBERTを使います。
F1スコアはそれぞれ78.0、85.0である。
言葉埋め込みにおける不公平な偏見を避けるためにこの技術がどのように実装されるかを示す提案がなされ、例えば人種差別のような不公平な行為が、コーパスが賞賛に値すると判断されるかどうかに関わらず、個人が不公平な行為の終りにいることを望まないと仮定される。
関連論文リスト
- Implementing Fairness: the view from a FairDream [0.0]
私たちはAIモデルをトレーニングし、不平等を検出して修正するために、独自の公正パッケージFairDreamを開発します。
本実験は,FairDreamの特性として,真理を条件としたフェアネスの目標を達成できることを実証した。
論文 参考訳(メタデータ) (2024-07-20T06:06:24Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - RankCSE: Unsupervised Sentence Representations Learning via Learning to
Rank [54.854714257687334]
本稿では,教師なし文表現学習のための新しい手法であるRangCSEを提案する。
コントラスト学習を伴うランキング一貫性とランキング蒸留を統一された枠組みに組み込む。
セマンティックテキスト類似性(STS)と転送タスク(TR)の両方について、広範な実験が実施されている。
論文 参考訳(メタデータ) (2023-05-26T08:27:07Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation [56.520470678876656]
ユーザ記述テキストに固有のバイアスは、言語品質の異なるレベルとユーザの保護された属性を関連付けることができる。
説明生成における測度特異的な対実的公正性を実現するための一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-14T02:29:10Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Is calibration a fairness requirement? An argument from the point of
view of moral philosophy and decision theory [0.0]
グループキャリブレーション違反は不公平な場合もあるが、不公平な場合もある。
これは、既に文献で進歩している主張と一致しており、アルゴリズム的公正性は文脈に敏感な方法で定義されるべきである。
論文 参考訳(メタデータ) (2022-05-11T14:03:33Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - Measuring a Texts Fairness Dimensions Using Machine Learning Based on
Social Psychological Factors [0.0]
フェアネスアセスメントを行う際、心理学を用いて人間が使用する主要な要因を判断する。
単語埋め込みを多次元の文レベルフェアネス認識ベクトルにデジタイズする。
第2のアプローチは、上記のフェアネス近似ベクトルに基づくPCAとMLを使い、F1スコアは86.2である。
論文 参考訳(メタデータ) (2021-10-29T21:09:17Z) - On the Moral Justification of Statistical Parity [0.0]
公正性の重要かつしばしば無視される側面は、道徳的な観点からある公正度測定をいかに正当化するかという問題である。
本研究の目的は,独立の統計的公正性基準に関連する道徳的側面を考察することである。
論文 参考訳(メタデータ) (2020-11-04T00:26:15Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。