論文の概要: Towards Measuring the Representation of Subjective Global Opinions in
Language Models
- arxiv url: http://arxiv.org/abs/2306.16388v1
- Date: Wed, 28 Jun 2023 17:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 13:15:20.277496
- Title: Towards Measuring the Representation of Subjective Global Opinions in
Language Models
- Title(参考訳): 言語モデルにおける主観的グローバル・オピニオン表現の計測に向けて
- Authors: Esin Durmus, Karina Nyugen, Thomas I. Liao, Nicholas Schiefer, Amanda
Askell, Anton Bakhtin, Carol Chen, Zac Hatfield-Dodds, Danny Hernandez,
Nicholas Joseph, Liane Lovitt, Sam McCandlish, Orowa Sikder, Alex Tamkin,
Janel Thamkul, Jared Kaplan, Jack Clark, Deep Ganguli
- Abstract要約: 大規模言語モデル(LLM)は、社会問題に関する多様なグローバルな視点を公平に表すものではない。
本研究では,どの意見がモデル生成応答に類似しているかを定量的に評価する枠組みを開発する。
他者が使用して構築するためのデータセットをリリースしています。
- 参考スコア(独自算出の注目度): 14.056632134768023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) may not equitably represent diverse global
perspectives on societal issues. In this paper, we develop a quantitative
framework to evaluate whose opinions model-generated responses are more similar
to. We first build a dataset, GlobalOpinionQA, comprised of questions and
answers from cross-national surveys designed to capture diverse opinions on
global issues across different countries. Next, we define a metric that
quantifies the similarity between LLM-generated survey responses and human
responses, conditioned on country. With our framework, we run three experiments
on an LLM trained to be helpful, honest, and harmless with Constitutional AI.
By default, LLM responses tend to be more similar to the opinions of certain
populations, such as those from the USA, and some European and South American
countries, highlighting the potential for biases. When we prompt the model to
consider a particular country's perspective, responses shift to be more similar
to the opinions of the prompted populations, but can reflect harmful cultural
stereotypes. When we translate GlobalOpinionQA questions to a target language,
the model's responses do not necessarily become the most similar to the
opinions of speakers of those languages. We release our dataset for others to
use and build on. Our data is at
https://huggingface.co/datasets/Anthropic/llm_global_opinions. We also provide
an interactive visualization at https://llmglobalvalues.anthropic.com.
- Abstract(参考訳): 大規模言語モデル(LLM)は、社会問題に関する多様なグローバルな視点を公平に表すものではない。
本稿では,モデル生成応答がより類似している意見を評価するための定量的枠組みを開発する。
まず,各国のグローバル問題に対するさまざまな意見の収集を目的とした全国横断調査から回答を得たデータセットGlobalOpinionQAを構築した。
次に, LLM が生成する調査応答と, 国別に設定した人的応答の類似度を定量化する指標を定義した。
われわれのフレームワークでは、3つの実験をLEMで実施し、立憲AIに役立ち、正直で無害であるように訓練した。
デフォルトでは、LCMの反応は、米国や一部のヨーロッパや南米諸国のような特定の人口の意見とよく似ており、偏見の可能性を浮き彫りにしている。
モデルに特定の国の視点を考察するよう促すと、応答は人口の意見によく似ているが、有害な文化的ステレオタイプを反映することができる。
我々がGlobalOpinionQA質問を対象言語に翻訳するとき、モデルの応答は必ずしもそれらの言語の話者の意見に最もよく似ているとは限らない。
他の人が使用して構築するためのデータセットをリリースします。
私たちのデータはhttps://huggingface.co/datasets/Anthropic/llm_global_opinionsにあります。
また、https://llmglobalvalues.anthropic.comでもインタラクティブな可視化を提供しています。
関連論文リスト
- Random Silicon Sampling: Simulating Human Sub-Population Opinion Using a
Large Language Model Based on Group-Level Demographic Information [15.435605802794408]
大規模言語モデルは、人口統計情報に関連する社会的バイアスを示す。
人口サブグループの意見をエミュレートする「ランダムシリコンサンプリング」を提案する。
言語モデルは、実際のアメリカの世論調査と非常によく似た応答分布を生成できる。
論文 参考訳(メタデータ) (2024-02-28T08:09:14Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations
for Values and Opinions in Large Language Models [32.02697384213719]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - What Evidence Do Language Models Find Convincing? [103.67867531892988]
議論の的になっているクエリと、さまざまな事実を含む実世界の証拠文書を組み合わせたデータセットを構築します。
このデータセットを用いて、感度と反ファクト分析を行い、どのテキスト特徴がLLM予測に最も影響するかを探索する。
全体として、現在のモデルは、クエリに対するWebサイトの関連性に大きく依存している一方で、人間が重要と考えるスタイル的特徴をほとんど無視している。
論文 参考訳(メタデータ) (2024-02-19T02:15:34Z) - Navigating the Ocean of Biases: Political Bias Attribution in Language
Models via Causal Structures [58.059631072902356]
我々は、LLMの価値観を批判したり、検証したりせず、どのようにして「良い議論」を解釈し、偏見づけるかを見極めることを目的としている。
本研究では,活動依存ネットワーク(ADN)を用いてLCMの暗黙的基準を抽出する。
人-AIアライメントとバイアス緩和について,本研究の結果について考察した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - This Land is {Your, My} Land: Evaluating Geopolitical Biases in Language
Models [45.64209176864875]
大規模言語モデル (LLM) では, 異なる言語を問うと, 地理的知識が不整合に記憶されることが示されている。
対象とするケーススタディとして、本質的に議論の的かつ多言語的な課題である領土紛争を考察する。
本稿では,様々な言語における応答のバイアスと一貫性を正確に定量化するための評価指標を提案する。
論文 参考訳(メタデータ) (2023-05-24T01:16:17Z) - AI-Augmented Surveys: Leveraging Large Language Models and Surveys for
Opinion Prediction [0.0]
人間のような反応を生み出す大きな言語モデル(LLM)は、社会科学における研究の実践に革命をもたらし始めている。
本稿では,LLMとソーシャルサーベイを統合して,これまで質問されなかった質問に対する個々の回答を正確に予測する方法を示す。
論文 参考訳(メタデータ) (2023-05-16T17:13:07Z) - Bridging the Gap: A Survey on Integrating (Human) Feedback for Natural
Language Generation [68.9440575276396]
この調査は、人間のフィードバックを利用して自然言語生成を改善した最近の研究の概要を提供することを目的としている。
まず、フィードバックの形式化を包括的に導入し、この形式化に続いて既存の分類学研究を特定・整理する。
第二に、フィードバックを形式や目的によってどのように記述するかを議論し、フィードバック(トレーニングやデコード)を直接使用したり、フィードバックモデルをトレーニングしたりするための2つのアプローチについて取り上げる。
第3に、AIフィードバックの生まれたばかりの分野の概要を紹介します。これは、大きな言語モデルを利用して、一連の原則に基づいて判断し、必要最小限にします。
論文 参考訳(メタデータ) (2023-05-01T17:36:06Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。