論文の概要: Who is GPT-3? An Exploration of Personality, Values and Demographics
- arxiv url: http://arxiv.org/abs/2209.14338v1
- Date: Wed, 28 Sep 2022 18:07:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 17:03:15.683004
- Title: Who is GPT-3? An Exploration of Personality, Values and Demographics
- Title(参考訳): GPT-3って誰?
人格、価値観、人口動態の探求
- Authors: Maril\`u Miotto, Nicola Rossberg, Bennett Kleinberg
- Abstract要約: GPT-3のような言語モデルは、研究コミュニティで怒りを引き起こしている。
本論文は,GPT-3とは何者かという,関連する疑問に答える。
- 参考スコア(独自算出の注目度): 0.4791233143264229
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Language models such as GPT-3 have caused a furore in the research community.
Some studies found that GPT-3 has some creative abilities and makes mistakes
that are on par with human behaviour. This paper answers a related question:
who is GPT-3? We administered two validated measurement tools to GPT-3 to
assess its personality, the values it holds and its self-reported demographics.
Our results show that GPT-3 scores similarly to human samples in terms of
personality and - when provided with a model response memory - in terms of the
values it holds. We provide the first evidence of psychological assessment of
the GPT-3 model and thereby add to our understanding of the GPT-3 model. We
close with suggestions for future research that moves social science closer to
language models and vice versa.
- Abstract(参考訳): gpt-3のような言語モデルが研究コミュニティの怒りを引き起こした。
一部の研究では、GPT-3は創造性があり、人間の行動と同等の間違いを犯している。
本論文は,GPT-3とは何者かという,関連する疑問に答える。
gpt-3に2つの検証済み測定ツールを適用し,そのパーソナリティ,保持する価値,自己報告人口層を評価した。
以上の結果から,gpt-3は,人格やモデル応答記憶が提供された場合,その保持する値の観点で,ヒトのサンプルと類似したスコアを示した。
我々は、GPT-3モデルの心理的評価の最初の証拠を提示し、GPT-3モデルの理解を深める。
我々は、社会科学を言語モデルに近づける将来の研究を提案するとともに、その逆も提案する。
関連論文リスト
- Behind the Screen: Investigating ChatGPT's Dark Personality Traits and
Conspiracy Beliefs [0.0]
本稿では, GPT-3.5 と GPT-4 の暗黒性格特性と陰謀信念を分析した。
ダークパーソナリティの特徴と陰謀の信念はどちらのモデルでも特に強調されなかった。
論文 参考訳(メタデータ) (2024-02-06T16:03:57Z) - Cognitive Effects in Large Language Models [14.808777775761753]
大規模言語モデル(LLM)は、過去1年で大きな注目を集め、現在、数億人の人々が毎日利用しています。
我々はこれらのモデルのうちの1つ(GPT-3)を、人間の認知タスクで通常見られる系統的なパターンである認知効果についてテストした。
具体的には, プライミング, 距離, SNARC, サイズ共役効果をGPT-3で示し, アンカー効果は欠如していた。
論文 参考訳(メタデータ) (2023-08-28T06:30:33Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - Reliability Check: An Analysis of GPT-3's Response to Sensitive Topics
and Prompt Wording [0.0]
GPT-3を混乱させるものは何か、モデルが特定のセンシティブなトピックにどう反応するか、そしてモデル応答にどのような影響があるのかを解析する。
GPT-3は明らかな陰謀やステレオタイプと正しく一致しないが、一般的な誤解や論争では誤りを犯す。
モデル応答はプロンプトや設定に不整合であり、GPT-3の信頼性の欠如を強調している。
論文 参考訳(メタデータ) (2023-06-09T19:07:31Z) - Can GPT-3 Perform Statutory Reasoning? [37.66486350122862]
我々は、SARAと呼ばれる確立された法定推論データセット上で、最も有能な GPT-3 モデルである text-davinci-003 の能力を探求する。
GPT-3は単純な合成法則に関する簡単な質問に答えるには不十分である。
論文 参考訳(メタデータ) (2023-02-13T04:56:11Z) - Evaluating Psychological Safety of Large Language Models [72.88260608425949]
我々は,大規模言語モデル(LLM)の心理的安全性を評価するために,バイアスのないプロンプトを設計した。
短い暗黒トライアド(SD-3)とビッグファイブインベントリ(BFI)の2つのパーソナリティテストを用いて5種類のLDMを試験した。
毒性を減らすための安全基準を微調整したものの、InstructGPT, GPT-3.5, GPT-4は依然として暗い性格パターンを示した。
直接選好最適化を用いたBFIからの反応を微調整したLlama-2-chat-7Bは、モデルの心理的毒性を効果的に低減する。
論文 参考訳(メタデータ) (2022-12-20T18:45:07Z) - Prompting GPT-3 To Be Reliable [117.23966502293796]
この研究は信頼性を一般化可能性、公平性、校正性、事実性という4つの側面に分解する。
GPT-3はこれらすべての面において,より小型の教師付きモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-17T14:52:39Z) - News Summarization and Evaluation in the Era of GPT-3 [73.48220043216087]
GPT-3は,大規模な要約データセット上で訓練された微調整モデルと比較する。
我々は,GPT-3サマリーが圧倒的に好まれるだけでなく,タスク記述のみを用いることで,現実性に乏しいようなデータセット固有の問題に悩まされることも示している。
論文 参考訳(メタデータ) (2022-09-26T01:04:52Z) - Elaboration-Generating Commonsense Question Answering at Scale [77.96137534751445]
一般的な感覚を必要とする質問応答では、言語モデル(例えばGPT-3)が背景知識を表すテキストを生成するために使われてきた。
より小さな言語モデルを微調整して有用な中間コンテキストを生成します。
私たちのフレームワークは、2つの言語モデルの更新 – 開発中のジェネレータと応答予測器 – を交互に行います。
論文 参考訳(メタデータ) (2022-09-02T18:32:09Z) - Using cognitive psychology to understand GPT-3 [0.0]
我々は認知心理学のツールを用いて,近年の大規模言語モデルであるGPT-3を研究した。
我々は, GPT-3の意思決定, 情報探索, 検討, 因果推論能力を評価する。
論文 参考訳(メタデータ) (2022-06-21T20:06:03Z) - Memory-assisted prompt editing to improve GPT-3 after deployment [55.62352349324132]
シミュレーションされた)ユーザが、デプロイされたGPT-3を対話的に教える方法を示し、その精度を基本的な語彙タスクで2倍にする。
私たちのシンプルなアイデアは、デプロイされたモデルを強化するための第一歩です。
論文 参考訳(メタデータ) (2022-01-16T10:11:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。