論文の概要: Inducing anxiety in large language models increases exploration and bias
- arxiv url: http://arxiv.org/abs/2304.11111v1
- Date: Fri, 21 Apr 2023 16:29:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 13:56:09.195730
- Title: Inducing anxiety in large language models increases exploration and bias
- Title(参考訳): 大規模言語モデルにおける不安誘発は探索とバイアスを増加させる
- Authors: Julian Coda-Forno, Kristin Witte, Akshay K. Jagadish, Marcel Binz,
Zeynep Akata, Eric Schulz
- Abstract要約: 我々は、生成事前学習型トランスフォーマー3.5に焦点をあて、精神医学でよく研究される課題に焦点をあてる。
以上の結果から, GPT-3.5は共通の不安アンケートに強く反応し, 被験者よりも高い不安スコアが得られた。
GPT-3.5の反応は感情誘導プロンプトを用いて予測可能に変更できる。
- 参考スコア(独自算出の注目度): 29.833677055101326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models are transforming research on machine learning while
galvanizing public debates. Understanding not only when these models work well
and succeed but also why they fail and misbehave is of great societal
relevance. We propose to turn the lens of computational psychiatry, a framework
used to computationally describe and modify aberrant behavior, to the outputs
produced by these models. We focus on the Generative Pre-Trained Transformer
3.5 and subject it to tasks commonly studied in psychiatry. Our results show
that GPT-3.5 responds robustly to a common anxiety questionnaire, producing
higher anxiety scores than human subjects. Moreover, GPT-3.5's responses can be
predictably changed by using emotion-inducing prompts. Emotion-induction not
only influences GPT-3.5's behavior in a cognitive task measuring exploratory
decision-making but also influences its behavior in a previously-established
task measuring biases such as racism and ableism. Crucially, GPT-3.5 shows a
strong increase in biases when prompted with anxiety-inducing text. Thus, it is
likely that how prompts are communicated to large language models has a strong
influence on their behavior in applied settings. These results progress our
understanding of prompt engineering and demonstrate the usefulness of methods
taken from computational psychiatry for studying the capable algorithms to
which we increasingly delegate authority and autonomy.
- Abstract(参考訳): 大規模な言語モデルは、公開討論の場を広げながら、機械学習の研究を変革している。
これらのモデルがうまく機能し、成功したときだけでなく、なぜ失敗し、失敗するかを理解することは、社会的関連性が高い。
本稿では, 異常な振る舞いを計算的に記述し, 修正するフレームワークである計算精神医学のレンズを, これらのモデルによって生成された出力に変換することを提案する。
我々は、生成事前学習型トランスフォーマー3.5に着目し、精神医学でよく研究される課題に焦点をあてる。
以上の結果から, GPT-3.5は共通の不安アンケートに強く反応し, 被験者よりも高い不安スコアが得られた。
さらに、GPT-3.5の応答は感情誘導プロンプトを用いて予測可能に変更できる。
感情誘導は、探索的意思決定を測定する認知タスクにおけるGPT-3.5の行動に影響を及ぼすだけでなく、人種差別や能力主義のようなバイアスを測定する以前に確立されたタスクにおける行動にも影響を及ぼす。
重要なことに、GPT-3.5は不安を誘発するテキストによってバイアスが強く増加する。
したがって、プロンプトが大規模言語モデルにどのように伝達されるかは、適用された環境での行動に強い影響を与える可能性が高い。
これらの結果は,即座工学の理解を前進させ,権威と自律性を委譲する有能なアルゴリズムを研究するための計算心理学から取られた手法の有用性を実証する。
関連論文リスト
- LLM Agents for Psychology: A Study on Gamified Assessments [71.08193163042107]
心理的な測定は、精神健康、自己理解、そして個人の発達に不可欠である。
心理学ゲームAgenT(サイコガト)は、信頼性、収束妥当性、差別的妥当性などの心理学的指標において統計的に有意な卓越性を達成している。
論文 参考訳(メタデータ) (2024-02-19T18:00:30Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Investigating Large Language Models' Perception of Emotion Using
Appraisal Theory [3.0902630634005797]
大規模言語モデル (LLM) は近年大きく進歩し、現在一般に使われている。
本研究では,評価・対処理論のレンズによる感情知覚について検討する。
SCPQ を OpenAI, davinci-003, ChatGPT, GPT-4 の3つの最近の LLM に適用し,評価理論と人体データによる予測結果と比較した。
論文 参考訳(メタデータ) (2023-10-03T16:34:47Z) - Large Language Models Can Infer Psychological Dispositions of Social
Media Users [1.2277343096128712]
本研究では,デジタルフットプリントから個人の心理的沈着を推定する大規模言語モデルの可能性について検討した。
ゼロショット学習シナリオにおいて,GPT-3.5とGPT-4がユーザのFacebookステータス更新からビッグファイブの特徴を引き出す能力を評価する。
以上の結果から,性別や年齢に対する性格推定の偏りが示唆された。
論文 参考訳(メタデータ) (2023-09-13T01:27:48Z) - Fine-grained Affective Processing Capabilities Emerging from Large
Language Models [7.17010996725842]
本稿では,ChatGPTのゼロショット機能について,プロンプトのみを用いて情緒的な計算処理を行う方法について検討する。
b) 感情カテゴリーの観点で意味のある感情表現を持ち, c) 状況の基本的な評価に基づく感情誘発を行うことができることを示す。
論文 参考訳(メタデータ) (2023-09-04T15:32:47Z) - Generative Models as a Complex Systems Science: How can we make sense of
large language model behavior? [75.79305790453654]
事前訓練されたモデルから望ましい振る舞いを排除し、望ましくないモデルを避けながら、NLPを再定義した。
言語モデルの振る舞いをタスク間性能を説明するカテゴリに分解する体系的な取り組みについて論じる。
論文 参考訳(メタデータ) (2023-07-31T22:58:41Z) - Human-Like Intuitive Behavior and Reasoning Biases Emerged in Language
Models -- and Disappeared in GPT-4 [0.0]
大型言語モデル (LLM) は人間の直感に類似した行動を示す。
また、直感的な意思決定の傾向がいかに頑丈かも調べる。
論文 参考訳(メタデータ) (2023-06-13T08:43:13Z) - Using cognitive psychology to understand GPT-3 [0.0]
我々は認知心理学のツールを用いて,近年の大規模言語モデルであるGPT-3を研究した。
我々は, GPT-3の意思決定, 情報探索, 検討, 因果推論能力を評価する。
論文 参考訳(メタデータ) (2022-06-21T20:06:03Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。