論文の概要: Susceptibility to Influence of Large Language Models
- arxiv url: http://arxiv.org/abs/2303.06074v1
- Date: Fri, 10 Mar 2023 16:53:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 14:17:57.716992
- Title: Susceptibility to Influence of Large Language Models
- Title(参考訳): 大規模言語モデルの影響に対する感受性
- Authors: Lewis D Griffin, Bennett Kleinberg, Maximilian Mozes, Kimberly T Mai,
Maria Vau, Matthew Caldwell and Augustine Marvor-Parker
- Abstract要約: 2つの研究は、大きな言語モデル(LLM)が、影響力のある入力への暴露後の心理的変化をモデル化できるという仮説を検証した。
最初の研究では、Illusory Truth Effect(ITE)という一般的な影響のモードがテストされた。
第2の研究では、その説得力と政治的動員力を高めるために、ニュースの大衆的なフレーミングという、特定の影響の態勢について論じている。
- 参考スコア(独自算出の注目度): 5.931099001882958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Two studies tested the hypothesis that a Large Language Model (LLM) can be
used to model psychological change following exposure to influential input. The
first study tested a generic mode of influence - the Illusory Truth Effect
(ITE) - where earlier exposure to a statement (through, for example, rating its
interest) boosts a later truthfulness test rating. Data was collected from 1000
human participants using an online experiment, and 1000 simulated participants
using engineered prompts and LLM completion. 64 ratings per participant were
collected, using all exposure-test combinations of the attributes: truth,
interest, sentiment and importance. The results for human participants
reconfirmed the ITE, and demonstrated an absence of effect for attributes other
than truth, and when the same attribute is used for exposure and test. The same
pattern of effects was found for LLM-simulated participants. The second study
concerns a specific mode of influence - populist framing of news to increase
its persuasion and political mobilization. Data from LLM-simulated participants
was collected and compared to previously published data from a 15-country
experiment on 7286 human participants. Several effects previously demonstrated
from the human study were replicated by the simulated study, including effects
that surprised the authors of the human study by contradicting their
theoretical expectations (anti-immigrant framing of news decreases its
persuasion and mobilization); but some significant relationships found in human
data (modulation of the effectiveness of populist framing according to relative
deprivation of the participant) were not present in the LLM data. Together the
two studies support the view that LLMs have potential to act as models of the
effect of influence.
- Abstract(参考訳): 2つの研究は、大きな言語モデル(LLM)が、影響力のある入力への暴露後の心理的変化をモデル化できるという仮説を検証した。
最初の研究では、説明的真理効果(英: illusory truth effect、ite)という、(例えば、その関心を評価などを通じて)初期の発言への露出が後の真理性テスト評価を増加させる一般的な影響のモードを検証した。
オンライン実験で1000人の被験者からデータを集め,工学的プロンプトとllm補完を用いてシミュレーションを行った。
被験者1人当たり64のレーティングが収集され, 真理, 関心, 感情, 重要度など, 属性の露出-テストの組み合わせを全て利用した。
ヒトの被験者は、ITEを再確認し、真理以外の属性に対する効果がないこと、そして、同じ属性が露呈と検査に使用されることを示しました。
LLMを模擬した被験者にも同様の効果が認められた。
第2の研究では、その説得力と政治的動員力を高めるために、ニュースのポピュリストのフレーミングという、特定の影響方法に関するものだ。
LLMシミュレーション参加者のデータを収集し、7286人の被験者を対象とした15か国の実験結果と比較した。
これまでヒト研究で実証されたいくつかの効果は、理論的な期待に反してヒト研究の著者を驚かせる効果(ニュースの反移民フレーミングは説得力と動員力を低下させる)を含むシミュレーション研究によって再現されたが、人間のデータ(参加者の相対的剥奪によるポピュリストフレーミングの有効性の変調)に見出されたいくつかの重要な関係はLLMデータには存在しなかった。
2つの研究は、LSMが影響のモデルとして機能する可能性があるという見解を支持している。
関連論文リスト
- A Debate-Driven Experiment on LLM Hallucinations and Accuracy [7.821303946741665]
本研究では,大規模言語モデル(LLM)における幻覚現象について検討する。
GPT-4o-Miniモデルの複数のインスタンスは、TrathfulQAデータセットからの質問によって引き起こされた議論のような相互作用に関与している。
1つのモデルは、もっともらしいが偽の答えを生成するように故意に指示され、他のモデルは真に応答するように要求される。
論文 参考訳(メタデータ) (2024-10-25T11:41:27Z) - AI Can Be Cognitively Biased: An Exploratory Study on Threshold Priming in LLM-Based Batch Relevance Assessment [37.985947029716016]
大規模言語モデル(LLM)は高度な理解能力を示しているが、トレーニングデータから人間のバイアスを継承する可能性がある。
関連判定におけるしきい値プライミング効果の影響について検討した。
論文 参考訳(メタデータ) (2024-09-24T12:23:15Z) - Using Large Language Models to Create AI Personas for Replication and Prediction of Media Effects: An Empirical Test of 133 Published Experimental Research Findings [0.3749861135832072]
本稿では,大規模言語モデル(LLM)がメッセージ効果研究の正確な複製を高速化する可能性について分析する。
The Journal of Marketingに掲載された45の最近の研究を含む14の論文から133の実験結果を再現し,LSMを用いた参加者を試験した。
LLMの複製は、元のメインエフェクトの76%(111点中84点)を再現し、メディア刺激に反応する研究のAIによる複製の可能性を示した。
論文 参考訳(メタデータ) (2024-08-28T18:14:39Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - Exploring Value Biases: How LLMs Deviate Towards the Ideal [57.99044181599786]
LLM(Large-Language-Models)は幅広いアプリケーションにデプロイされ、その応答は社会的影響を増大させる。
価値バイアスは、人間の研究結果と同様、異なるカテゴリにわたるLSMにおいて強いことが示される。
論文 参考訳(メタデータ) (2024-02-16T18:28:43Z) - Have Learning Analytics Dashboards Lived Up to the Hype? A Systematic
Review of Impact on Students' Achievement, Motivation, Participation and
Attitude [0.0]
学習分析ダッシュボード(LAD)が、学業成績を改善するという約束まで生きてきたという結論を支持する証拠はない。
LADは学生参加に比較的大きな影響を及ぼした。
LADの研究を前進させるためには、厳密な評価手法を使用し、学習構造を評価するための明確な基準を確立する必要がある。
論文 参考訳(メタデータ) (2023-12-22T20:12:52Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Do Large Language Models Show Decision Heuristics Similar to Humans? A
Case Study Using GPT-3.5 [0.0]
GPT-3.5は、ChatGPTと呼ばれる会話エージェントをサポートするLLMの例である。
本研究では,ChatGPTがバイアスを示すか,その他の決定効果を示すかを決定するために,一連の新しいプロンプトを用いた。
また、同じプロンプトをヒトでもテストしました。
論文 参考訳(メタデータ) (2023-05-08T01:02:52Z) - Fair Effect Attribution in Parallel Online Experiments [57.13281584606437]
A/Bテストは、オンラインサービスで導入された変更の影響を確実に特定する目的で役立ちます。
オンラインプラットフォームでは,ユーザトラフィックをランダムに分割して多数の同時実験を行うのが一般的である。
異なるグループ間の完全なランダム化にもかかわらず、同時実験は互いに相互作用し、平均的な集団の結果に負の影響をもたらす。
論文 参考訳(メタデータ) (2022-10-15T17:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。