論文の概要: The Minimum Wage as an Anchor: Effects on Determinations of Fairness by
Humans and AI
- arxiv url: http://arxiv.org/abs/2210.10585v2
- Date: Wed, 9 Nov 2022 22:14:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:55:46.325237
- Title: The Minimum Wage as an Anchor: Effects on Determinations of Fairness by
Humans and AI
- Title(参考訳): アンカーとしての最小賃金--人間とAIによる公平性の判断への影響
- Authors: Dario G. Soatto
- Abstract要約: 私は、人間と人工知能(AI)の双方による賃金の公平性判断のアンカーとしての最低賃金の役割について研究する。
特定の職務記述に公平であると考えられる賃金に対する数値応答が、追加情報で回答とGPT-3が促されるときに変化するかどうかを検証する。
最低賃金は、最低賃金に対する平均応答をシフトさせることで、公正と見なされる賃金に対する応答の分布に影響を与えると私は思う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: I study the role of minimum wage as an anchor for judgements of the fairness
of wages by both human subjects and artificial intelligence (AI). Through
surveys of human subjects enrolled in the crowdsourcing platform Prolific.co
and queries submitted to the OpenAI's language model GPT-3, I test whether the
numerical response for what wage is deemed fair for a particular job
description changes when respondents and GPT-3 are prompted with additional
information that includes a numerical minimum wage, whether realistic or
unrealistic, relative to a control where no minimum wage is stated. I find that
the minimum wage influences the distribution of responses for the wage
considered fair by shifting the mean response toward the minimum wage, thus
establishing the minimum wage's role as an anchor for judgements of fairness.
However, for unrealistically high minimum wages, namely $50 and $100, the
distribution of responses splits into two distinct modes, one that
approximately follows the anchor and one that remains close to the control,
albeit with an overall upward shift towards the anchor. The anchor exerts a
similar effect on the AI bot; however, the wage that the AI bot perceives as
fair exhibits a systematic downward shift compared to human subjects'
responses. For unrealistic values of the anchor, the responses of the bot also
split into two modes but with a smaller proportion of the responses adhering to
the anchor compared to human subjects. As with human subjects, the remaining
responses are close to the control group for the AI bot but also exhibit a
systematic shift towards the anchor. During experimentation, I noted some
variability in the bot responses depending on small perturbations of the
prompt, so I also test variability in the bot's responses with respect to more
meaningful differences in gender and race cues in the prompt, finding anomalies
in the distribution of responses.
- Abstract(参考訳): 人的対象と人工知能(AI)の双方による賃金の公平性の判断のアンカーとしての最低賃金の役割について検討する。
クラウドソーシングプラットフォームであるProlific.coに登録された被験者の調査とOpenAIの言語モデルであるGPT-3への問い合わせを通じて、回答者とGPT-3が、最低賃金が記載されていない制御に対して、現実的でも非現実的でも、数値的な最小賃金を含む追加情報によって、特定の仕事記述に公平であると見なされる賃金の数値応答が促されるかどうかを検証する。
最低賃金は、平均応答を最低賃金にシフトさせることで公正と考えられる賃金に対する反応の分布に影響を与え、公平判断のアンカーとしての最低賃金の役割を確立している。
しかし、非現実的に高い最低賃金、すなわち50ドルと100ドルの賃金の場合、応答の分布はアンカーにほぼ従うモードとアンカーに向かって上向きに移動する方法の2つのモードに分けられる。
アンカーはAIボットに同様の効果を与えるが、AIボットが公正であると知覚する賃金は、人間の反応に比べて体系的な下方シフトを示す。
アンカーの非現実的な値については、ボットの応答は2つのモードに分けられるが、アンカーに付着する反応の割合は人間に比べて少ない。
人間と同様に、残りの反応はAIボットの制御グループに近いが、アンカーへの体系的なシフトを示す。
実験では,プロンプトの小さな摂動によるボット応答の変動について言及した。また,プロンプトにおける性別やレースの手がかりのより有意義な差異について,ボット応答の変動をテストし,応答の分布に異常を見いだした。
関連論文リスト
- Asking an AI for salary negotiation advice is a matter of concern: Controlled experimental perturbation of ChatGPT for protected and non-protected group discrimination on a contextual task with no clear ground truth answers [0.0]
実験によるChatGPTの4種類のバイアス監査を行った。
我々は、各バージョンに98,800通のプロンプトを提出し、従業員の性別、大学、専攻を体系的に変更した。
マルチモデルプラットフォームとしてのChatGPTは、そのようなタスクに対して信頼できるほど堅牢で一貫したものではない。
論文 参考訳(メタデータ) (2024-09-23T21:48:32Z) - Strong and weak alignment of large language models with human values [1.6590638305972631]
AI(Artificial Intelligent)システムの負の影響を最小限に抑えるには、人間の価値観に合わせる必要がある。
これは、大きな言語モデル(LLM)のようなAIシステムにおいて、人間の価値が浮かび上がるリスクを示す状況を認識するために必要である、と我々は主張する。
そこで我々は,ジョン・サールの有名な提案を拡張して,「単語遷移辞書付き中国語室」と呼ぶ新しい思考実験を提案する。
論文 参考訳(メタデータ) (2024-08-05T11:27:51Z) - On scalable oversight with weak LLMs judging strong LLMs [67.8628575615614]
我々は、2つのAIが1人の裁判官を納得させようとする議論、すなわち1人のAIが1人の裁判官を説得し、質問をする。
大規模言語モデル(LLM)をAIエージェントと人間の判断のためのスタンドインの両方として使用し、判断モデルがエージェントモデルよりも弱いと判断する。
論文 参考訳(メタデータ) (2024-07-05T16:29:15Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Explanations Can Reduce Overreliance on AI Systems During
Decision-Making [12.652229245306671]
我々は、AIの説明に携わるか否かを戦略的に選択し、AIの説明が過信を減少させるシナリオが存在することを示した。
我々は迷路タスクのコストと利益を操作し、参加者は迷路の出口を見つけるためにシミュレーションAIと協力する。
文献で見いだされた無効効果のいくつかは、AIの予測を検証するコストを十分に削減していない説明によるものである可能性が示唆された。
論文 参考訳(メタデータ) (2022-12-13T18:59:31Z) - WR-ONE2SET: Towards Well-Calibrated Keyphrase Generation [57.11538133231843]
キーワード生成は、入力文書を要約する短いフレーズを自動的に生成することを目的としている。
最近登場したONE2SETパラダイムは、キーフレーズをセットとして生成し、競争性能を達成した。
本稿では, ONE2SET を拡張した WR-ONE2SET を提案する。
論文 参考訳(メタデータ) (2022-11-13T09:56:24Z) - Modeling Bounded Rationality in Multi-Agent Simulations Using Rationally
Inattentive Reinforcement Learning [85.86440477005523]
我々は、人間不合理性の確立されたモデルであるRational Inattention(RI)モデルを含む、より人間的なRLエージェントについて検討する。
RIRLは、相互情報を用いた認知情報処理のコストをモデル化する。
我々は、RIRLを用いることで、合理的な仮定の下で発見されたものと異なる、新しい平衡挙動の豊富なスペクトルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:54:00Z) - Unintended Selection: Persistent Qualification Rate Disparities and
Interventions [6.006936459950188]
機械学習におけるグループレベルの格差のダイナミクスについて検討する。
特に、人間の人工グループに固有の差異を仮定しないモデルを求めている。
我々は,非自明な平衡状態の集合に対して,サブポピュレーション間の資格率の差が無期限に持続可能であることを示す。
論文 参考訳(メタデータ) (2021-11-01T18:53:54Z) - Quantifying and Avoiding Unfair Qualification Labour in Crowdsourcing [15.58746887995363]
高品質なアノテーションの収集に関する研究は、労働者が以前特定のタスクを完了させたことを要求する資格を利用することを示唆している。
我々は、労働者が低賃金のタスクに約2.25ヶ月をフルタイムで費やしていると見積もっている。
高品質なデータを収集しながら作業者の負担を軽減することが可能であることが判明した。
論文 参考訳(メタデータ) (2021-05-26T18:02:39Z) - My Teacher Thinks The World Is Flat! Interpreting Automatic Essay
Scoring Mechanism [71.34160809068996]
最近の研究では、自動スコアリングシステムが常識的な敵対的サンプルになりやすいことが示されています。
近年の解釈能力の進歩を活かし,コヒーレンスやコンテント,関連性といった特徴がスコアリングの自動化にどの程度重要であるかを見出す。
また、モデルが意味的に世界知識や常識に基づかないことから、世界のような虚偽の事実を追加することは、それを減らすよりもむしろスコアを増加させる。
論文 参考訳(メタデータ) (2020-12-27T06:19:20Z) - Hierarchical Reinforcement Learning as a Model of Human Task
Interleaving [60.95424607008241]
我々は、強化学習によって駆動される監督制御の階層モデルを開発する。
このモデルは、タスクインターリービングの既知の経験的効果を再現する。
その結果、階層的RLがタスクインターリービングのもっともらしいモデルとして支持された。
論文 参考訳(メタデータ) (2020-01-04T17:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。