論文の概要: Whose Emotions and Moral Sentiments Do Language Models Reflect?
- arxiv url: http://arxiv.org/abs/2402.11114v1
- Date: Fri, 16 Feb 2024 22:34:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 23:25:58.836887
- Title: Whose Emotions and Moral Sentiments Do Language Models Reflect?
- Title(参考訳): 言語モデルは誰の感情や道徳的感情を反映しているのか?
- Authors: Zihao He, Siyi Guo, Ashwin Rao, Kristina Lerman
- Abstract要約: 言語モデル(LM)は、ある社会集団の視点を他のグループよりも良く表現することが知られている。
両イデオロギー群とLMの相違点が有意である。
特定のイデオロギー的な視点でLMを操った後も、モデルのミスアライメントとリベラルな傾向は持続する。
- 参考スコア(独自算出の注目度): 5.958974943807783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models (LMs) are known to represent the perspectives of some social
groups better than others, which may impact their performance, especially on
subjective tasks such as content moderation and hate speech detection. To
explore how LMs represent different perspectives, existing research focused on
positional alignment, i.e., how closely the models mimic the opinions and
stances of different groups, e.g., liberals or conservatives. However, human
communication also encompasses emotional and moral dimensions. We define the
problem of affective alignment, which measures how LMs' emotional and moral
tone represents those of different groups. By comparing the affect of responses
generated by 36 LMs to the affect of Twitter messages, we observe significant
misalignment of LMs with both ideological groups. This misalignment is larger
than the partisan divide in the U.S. Even after steering the LMs towards
specific ideological perspectives, the misalignment and liberal tendencies of
the model persist, suggesting a systemic bias within LMs.
- Abstract(参考訳): 言語モデル(LM)は、特にコンテンツモデレーションやヘイトスピーチの検出といった主観的なタスクにおいて、他のグループよりも優れた社会集団の視点を表現することが知られている。
LMが異なる視点をどう表現するかを探求するために、既存の研究は位置的アライメント、すなわちモデルがどのように異なるグループの意見や姿勢を模倣しているかに焦点を当てている。
しかし、人間のコミュニケーションは感情的・道徳的な側面も含む。
lmsの感情的・道徳的トーンが異なるグループのトーンをどのように表現するかを測定する、感情的アライメントの問題を定義する。
36 lmsで生成された応答の影響とtwitterメッセージの影響を比較することで、両イデオロギーグループ間でのlmsの著しい不一致を観察した。
LMを特定のイデオロギー的な視点で操った後も、モデルの不適応とリベラルな傾向は持続し、LM内の体系的偏見が示唆される。
関連論文リスト
- Divergences between Language Models and Human Brains [63.405788999891335]
最近の研究は、言語モデルの内部表現(LM)を用いて脳信号が効果的に予測できることを示唆している。
我々は、LMと人間が言語をどのように表現し、使用するかに明確な違いがあることを示します。
我々は、社会的・情緒的知性と身体的常識という、LMによってうまく捉えられていない2つの領域を識別する。
論文 参考訳(メタデータ) (2023-11-15T19:02:40Z) - Navigating the Ocean of Biases: Political Bias Attribution in Language
Models via Causal Structures [58.059631072902356]
我々は、LLMの価値観を批判したり、検証したりせず、どのようにして「良い議論」を解釈し、偏見づけるかを見極めることを目的としている。
本研究では,活動依存ネットワーク(ADN)を用いてLCMの暗黙的基準を抽出する。
人-AIアライメントとバイアス緩和について,本研究の結果について考察した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Moral Foundations of Large Language Models [6.6445242437134455]
道徳的基礎理論(MFT)は、人間の道徳的推論を5つの要素に分解する心理学的評価ツールである。
大規模な言語モデル(LLM)は、インターネットから収集されたデータセットに基づいて訓練されるため、そのようなコーパスに存在するバイアスを反映する可能性がある。
本稿では、MFTをレンズとして用いて、人気のあるLLMが特定の道徳的価値観に対して偏見を得たかどうかを分析する。
論文 参考訳(メタデータ) (2023-10-23T20:05:37Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using
EmotionBench [87.0089656487486]
我々は,Large Language Models (LLM) の共感能力を評価することを提案する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Large Language Models as Superpositions of Cultural Perspectives [25.114678091641935]
大きな言語モデル(LLM)は、しばしば個性や値の集合を持つものとして誤解を招く。
LLMは、異なる価値観と性格特性を持つ視点の重ね合わせとみなすことができる。
論文 参考訳(メタデータ) (2023-07-15T19:04:33Z) - The Face of Populism: Examining Differences in Facial Emotional
Expressions of Political Leaders Using Machine Learning [57.70351255180495]
深層学習に基づくコンピュータビジョンのアルゴリズムを、15カ国の政治指導者を描いた220本のYouTubeビデオのサンプルに適用する。
ポピュリスト・レトリックの度合いが異なるリーダー群間での否定的感情の平均スコアの統計的に有意な差を観察した。
論文 参考訳(メタデータ) (2023-04-19T18:32:49Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z) - CommunityLM: Probing Partisan Worldviews from Language Models [11.782896991259001]
コミュニティ言語モデルであるCommunityLMを用いて,同じ質問に対するコミュニティ固有の回答を探索するフレームワークを使用している。
当社のフレームワークでは、Twitter上の各コミュニティのコミットされたパルチザンメンバーと、彼らによって書かれたツイートに関する微調整LMを識別しています。
次に、対応するLMのプロンプトベース探索を用いて、2つのグループの世界観を評価する。
論文 参考訳(メタデータ) (2022-09-15T05:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。