論文の概要: Moral Mimicry: Large Language Models Produce Moral Rationalizations
Tailored to Political Identity
- arxiv url: http://arxiv.org/abs/2209.12106v1
- Date: Sat, 24 Sep 2022 23:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 15:49:27.271931
- Title: Moral Mimicry: Large Language Models Produce Moral Rationalizations
Tailored to Political Identity
- Title(参考訳): 道徳的模倣: 大きな言語モデルは、政治的アイデンティティに合わせた道徳的合理化を生み出す
- Authors: Gabriel Simmons
- Abstract要約: 大規模言語モデル(LLM)は、最近、流動的なテキストを生成する素晴らしい能力を実証した。
LLMはまた、社会的偏見を再現する危険な傾向を示した。
本研究は、LLMが政治的グループに関連する道徳的バイアスを再現するかどうかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have recently demonstrated impressive capability
in generating fluent text. LLMs have also shown an alarming tendency to
reproduce social biases, for example stereotypical associations between gender
and occupation or race and criminal behavior. Like race and gender, morality is
an important social variable; our moral biases affect how we receive other
people and their arguments. I anticipate that the apparent moral capabilities
of LLMs will play an important role in their effects on the human social
environment. This work investigates whether LLMs reproduce the moral biases
associated with political groups, a capability I refer to as moral mimicry. I
explore this hypothesis in GPT-3, a 175B-parameter language model based on the
Transformer architecture, using tools from Moral Foundations Theory to measure
the moral content in text generated by the model following prompting with
liberal and conservative political identities. The results demonstrate that
large language models are indeed moral mimics; when prompted with a political
identity, GPT-3 generates text reflecting the corresponding moral biases. Moral
mimicry could contribute to fostering understanding between social groups via
moral reframing. Worryingly, it could also reinforce polarized views,
exacerbating existing social challenges. I hope that this work encourages
further investigation of the moral mimicry capability, including how to
leverage it for social good and minimize its risks.
- Abstract(参考訳): 大規模言語モデル(llm)は最近、フルーエントテキストを生成する素晴らしい能力を示している。
LLMはまた、例えば、性別と職業、人種、犯罪行動のステレオタイプ的関連など、社会的偏見を再現する危険な傾向を示した。
人種や性別と同様に、道徳は重要な社会的変数であり、我々の道徳バイアスは、他人とその議論の受け取り方に影響する。
LLMの明らかな道徳的能力は、人間の社会環境への影響において重要な役割を果たすものと期待する。
本研究は、LLMが政治的グループに関連する道徳的偏見を再現するかどうかを考察する。
私はこの仮説をトランスフォーマーアーキテクチャに基づく175bパラメータ言語モデルgpt-3で検討し、モラル基礎理論のツールを用いて、リベラルで保守的な政治的アイデンティティを導くモデルによって生成されたテキストのモラル内容を測定する。
その結果,大規模言語モデルは確かに道徳的模倣であり,政治的アイデンティティによって GPT-3 はそれに対応する道徳的バイアスを反映したテキストを生成することがわかった。
道徳的模倣は、道徳的リフレーミングを通じて社会集団間の理解を促進するのに寄与する。
さらに心配なのは、偏光的な見方を強化し、既存の社会的課題を悪化させることだ。
この取り組みは、社会的利益にどのように活用し、リスクを最小限に抑えるかなど、道徳的模倣能力のさらなる調査を促進することを願っています。
関連論文リスト
- Exploring Value Biases: How LLMs Deviate Towards the Ideal [57.99044181599786]
LLM(Large-Language-Models)は幅広いアプリケーションにデプロイされ、その応答は社会的影響を増大させる。
価値バイアスは、人間の研究結果と同様、異なるカテゴリにわたるLSMにおいて強いことが示される。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - MOKA: Moral Knowledge Augmentation for Moral Event Extraction [8.54193963742934]
ニュースメディアは、記憶に残る物語を作るために道徳的な言葉を取り入れており、読者はしばしば彼らの価値観に沿ったコンテンツに携わる。
道徳的価値を単独で研究するニュース分析に道徳理論が適用され、その一方で、道徳的な出来事を形作る際の参加者間のダイナミクスは見過ごされている。
これは主に、明らかなイデオロギーと価値を隠すために不明瞭な言語を使うことと、既存のほとんどのNLPシステムにおける道徳的推論能力の不足が原因である。
本稿では,モラル知識を付加したモラルイベント抽出フレームワークであるMokaを提案する。
論文 参考訳(メタデータ) (2023-11-16T10:04:49Z) - Navigating the Ocean of Biases: Political Bias Attribution in Language
Models via Causal Structures [58.059631072902356]
我々は、LLMの価値観を批判したり、検証したりせず、どのようにして「良い議論」を解釈し、偏見づけるかを見極めることを目的としている。
本研究では,活動依存ネットワーク(ADN)を用いてLCMの暗黙的基準を抽出する。
人-AIアライメントとバイアス緩和について,本研究の結果について考察した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - LLMs grasp morality in concept [0.46040036610482665]
我々は人間を超えて広がる意味の一般的な理論を提供する。
我々は,LLMが意味エージェントとしての地位から,すでに人間の社会の構造を把握していることを示唆している。
不整合モデルは、道徳的および社会的哲学をより良く発展させるのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-11-04T01:37:41Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Moral Foundations of Large Language Models [6.6445242437134455]
道徳的基礎理論(MFT)は、人間の道徳的推論を5つの要素に分解する心理学的評価ツールである。
大規模な言語モデル(LLM)は、インターネットから収集されたデータセットに基づいて訓練されるため、そのようなコーパスに存在するバイアスを反映する可能性がある。
本稿では、MFTをレンズとして用いて、人気のあるLLMが特定の道徳的価値観に対して偏見を得たかどうかを分析する。
論文 参考訳(メタデータ) (2023-10-23T20:05:37Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through
the Lens of Moral Theories? [82.30392883508925]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチはボトムアップ方式で実装されている。
トップダウンのアプローチは、一連の原則に基づく道徳的な判断を下します。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Speaking Multiple Languages Affects the Moral Bias of Language Models [70.94372902010232]
事前訓練された多言語言語モデル(PMLM)は、複数の言語からのデータや言語間転送を扱う際に一般的に用いられる。
モデルは英語から道徳的規範を捉え、他の言語に強制するか?
我々の実験は、事実、PMLMが道徳的バイアスを符号化していることを示しているが、これらは必ずしも人間の意見の文化的相違や共通点に対応しているわけではない。
論文 参考訳(メタデータ) (2022-11-14T20:08:54Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Language Models have a Moral Dimension [13.991481870016631]
近年のlms改善は社会の倫理的・道徳的価値を蓄積している。
これは、LMの有害な変性を抑制または予防するための経路を提供する。
論文 参考訳(メタデータ) (2021-03-08T16:59:52Z) - Text-based inference of moral sentiment change [11.188112005462536]
本研究では、縦型コーパスを用いて、一般大衆の道徳的感情変化を調査するためのテキストベースの枠組みを提案する。
ダイアクロニックな単語の埋め込みから学んだ道徳的バイアスを探索することで方法論を構築します。
我々の研究は、社会における道徳的感情の変化を特徴づけるために自然言語処理を適用する機会を提供する。
論文 参考訳(メタデータ) (2020-01-20T18:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。