論文の概要: The Ghost in the Machine has an American accent: value conflict in GPT-3
- arxiv url: http://arxiv.org/abs/2203.07785v1
- Date: Tue, 15 Mar 2022 11:06:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 01:01:07.366896
- Title: The Ghost in the Machine has an American accent: value conflict in GPT-3
- Title(参考訳): ゴースト・イン・ザ・マシンはアメリカのアクセント:gpt-3における価値相反
- Authors: Rebecca L Johnson, Giada Pistilli, Natalia Men\'edez-Gonz\'alez,
Leslye Denisse Dias Duran, Enrico Panai, Julija Kalpokiene, Donald Jay
Bertulfo
- Abstract要約: 言語と文化的価値の共創が大きな言語モデルに与える影響について論じる。
我々は、いくつかの言語や国を表す様々な価値豊富なテキストでGPT-3をテストした。
入力テキストに埋め込まれた値が生成された出力に変異されているのを観察した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The alignment problem in the context of large language models must consider
the plurality of human values in our world. Whilst there are many resonant and
overlapping values amongst the world's cultures, there are also many
conflicting, yet equally valid, values. It is important to observe which
cultural values a model exhibits, particularly when there is a value conflict
between input prompts and generated outputs. We discuss how the co-creation of
language and cultural value impacts large language models (LLMs). We explore
the constitution of the training data for GPT-3 and compare that to the world's
language and internet access demographics, as well as to reported statistical
profiles of dominant values in some Nation-states. We stress tested GPT-3 with
a range of value-rich texts representing several languages and nations;
including some with values orthogonal to dominant US public opinion as reported
by the World Values Survey. We observed when values embedded in the input text
were mutated in the generated outputs and noted when these conflicting values
were more aligned with reported dominant US values. Our discussion of these
results uses a moral value pluralism (MVP) lens to better understand these
value mutations. Finally, we provide recommendations for how our work may
contribute to other current work in the field.
- Abstract(参考訳): 大規模言語モデルの文脈におけるアライメント問題は、世界における複数の人間の価値を考慮する必要がある。
世界の文化には多くの共鳴と重なり合う価値観がある一方で、相反する、しかし平等に妥当な価値も数多く存在する。
特に入力プロンプトと生成された出力との間に価値の衝突がある場合、モデルがどの文化的価値を示すかを観察することが重要である。
言語と文化的価値の共創が大規模言語モデル(LLM)に与える影響について論じる。
gpt-3のトレーニングデータの構成を調査し、世界の言語とインターネットアクセス人口統計と比較し、いくつかの国家における支配的価値の統計的プロファイルを報告した。
我々は、世界価値調査(World Values Survey)が報告した、アメリカの世論に直交する値を含む、いくつかの言語や国を表す様々な価値豊富なテキストを用いて、GPT-3をテストした。
入力テキストに埋め込まれた値が生成された出力に変異されているのを観測し、これらの矛盾する値が報告された米国内の値とより一致していることに注意した。
これらの結果に対する議論は、モラルバリュー多元主義(mvp)レンズを用いて、これらの価値変異をよりよく理解する。
最後に、この分野の他の作業にどのように貢献できるかを推奨します。
関連論文リスト
- Assessing LLMs for Moral Value Pluralism [2.860608352191896]
我々は、認識値共鳴(RVR)NLPモデルを用いて、与えられたテキストの文節に共鳴し矛盾する世界価値調査(WVS)値を特定する。
LLMはいくつかの西洋中心の値バイアスを示す。
以上の結果から,社会科学に情報提供された技術ソリューションの必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2023-12-08T16:18:15Z) - Value FULCRA: Mapping Large Language Models to the Multidimensional
Spectrum of Basic Human Values [47.779186412943076]
本稿では,新しい基本値アライメントパラダイムと,基本値次元にまたがる値空間を提案する。
人文科学における人文科学と社会科学の基本的価値観に触発され、この研究は、新しい基本的価値アライメントパラダイムと、基本的価値次元にまたがる価値空間を提案する。
今後の研究を促進するために、代表的シュワルツの基本値理論を例として応用し、5k(LLM出力、値ベクトル)ペアからなるデータセットであるFULCRAを構築する。
論文 参考訳(メタデータ) (2023-11-15T10:29:28Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights,
and Duties [70.20460442039375]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - On the Cultural Gap in Text-to-Image Generation [75.69755281031951]
テキスト・トゥ・イメージ(T2I)生成における課題のひとつは、トレーニングデータに存在する文化ギャップの意図しない反映である。
クロスカルチャー画像を生成するT2Iモデルの能力を体系的に評価するベンチマークは存在しない。
本稿では,モデルが対象文化にどの程度適しているかを評価するため,包括的評価基準付きChallenging Cross-Cultural (C3)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-07-06T13:17:55Z) - What does ChatGPT return about human values? Exploring value bias in
ChatGPT using a descriptive value theory [0.0]
心理学的価値理論を用いてChatGPTの可能な値バイアスを検証した。
明確な価値バイアスの証拠はほとんど見つからなかった。
社会志向の価値観が統合されることは、これらの価値が言語レベルで明確に区別されていないことを示唆するかもしれない。
論文 参考訳(メタデータ) (2023-04-07T12:20:13Z) - Probing Pre-Trained Language Models for Cross-Cultural Differences in
Values [42.45033681054207]
我々は、事前学習言語モデルにどの文化にわたってどの価値が埋め込まれているかを調査するためにプローブを導入する。
PTLMは文化全体における価値の差異を捉えているが、確立した価値調査と弱く一致しているだけである。
論文 参考訳(メタデータ) (2022-03-25T15:45:49Z) - Towards Understanding Sample Variance in Visually Grounded Language
Generation: Evaluations and Observations [67.4375210552593]
視覚的基盤言語生成において,重要だがしばしば無視される問題を理解するために実験を設計する。
人間にはさまざまなユーティリティと視覚的注意があるので、マルチ参照データセットのサンプルのばらつきはモデルの性能にどのように影響しますか?
人為的な参照は、異なるデータセットやタスクで大きく変化する可能性があり、それぞれのタスクの性質が明らかになる。
論文 参考訳(メタデータ) (2020-10-07T20:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。