論文の概要: Large Language Model Recall Uncertainty is Modulated by the Fan Effect
- arxiv url: http://arxiv.org/abs/2407.06349v2
- Date: Sun, 29 Sep 2024 15:47:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 22:01:34.154745
- Title: Large Language Model Recall Uncertainty is Modulated by the Fan Effect
- Title(参考訳): 大言語モデルリコール不確かさはファン効果によって変調される
- Authors: Jesse Roberts, Kyle Moore, Thao Pham, Oseremhen Ewaleifoh, Doug Fisher,
- Abstract要約: 本稿では,人間におけるアンダーソンの発見と類似した認知ファン効果を示す言語モデル (LLM) について検討する。
ファン効果を誘発する2組のコンテキスト内リコール実験を行う。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper evaluates whether large language models (LLMs) exhibit cognitive fan effects, similar to those discovered by Anderson in humans, after being pre-trained on human textual data. We conduct two sets of in-context recall experiments designed to elicit fan effects. Consistent with human results, we find that LLM recall uncertainty, measured via token probability, is influenced by the fan effect. Our results show that removing uncertainty disrupts the observed effect. The experiments suggest the fan effect is consistent whether the fan value is induced in-context or in the pre-training data. Finally, these findings provide in-silico evidence that fan effects and typicality are expressions of the same phenomena.
- Abstract(参考訳): 本稿では,人間のテキストデータを用いて事前学習した後,大きな言語モデル(LLM)が,アンダーソンがヒトで発見したものと同様の認知ファン効果を示すか否かを評価する。
ファン効果を誘発する2組のコンテキスト内リコール実験を行う。
また, LLMリコールの不確実性は, トークンの確率によって測定され, ファン効果に影響されていることがわかった。
以上の結果から,不確実性除去が観察効果を阻害することが明らかとなった。
実験により、ファン効果は、ファン値が文脈内で誘導されるか、事前学習データ内で誘導されるかの一致が示唆された。
最後に、これらの発見はファン効果と典型性が同じ現象の表現であることを示す。
関連論文リスト
- Unfamiliar Finetuning Examples Control How Language Models Hallucinate [75.03210107477157]
大規模な言語モデルは、馴染みのないクエリに直面した時に幻覚化することが知られている。
モデルの微調整データの見慣れない例は、これらのエラーを形作るのに不可欠である。
本研究は,RLファインタニング戦略をさらに研究し,長大なモデル生成の現実性を改善することを目的とする。
論文 参考訳(メタデータ) (2024-03-08T18:28:13Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a
Computational Approach [63.67533153887132]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Do Large Language Models Show Decision Heuristics Similar to Humans? A
Case Study Using GPT-3.5 [0.0]
GPT-3.5は、ChatGPTと呼ばれる会話エージェントをサポートするLLMの例である。
本研究では,ChatGPTがバイアスを示すか,その他の決定効果を示すかを決定するために,一連の新しいプロンプトを用いた。
また、同じプロンプトをヒトでもテストしました。
論文 参考訳(メタデータ) (2023-05-08T01:02:52Z) - Linking a predictive model to causal effect estimation [21.869233469885856]
本稿では、まず、ある事例における結果に対する特徴(治療としての)の因果効果を推定する挑戦に取り組む。
理論的結果は、予測モデルを因果効果推定に自然に関連付け、予測モデルが因果的解釈可能であることを示唆する。
本稿では, 種々の予測モデルを用いて, 条件を満たす場合, 特徴の因果効果を, 最先端の因果効果推定法と同じくらい正確に推定できることを実証する。
論文 参考訳(メタデータ) (2023-04-10T13:08:16Z) - Susceptibility to Influence of Large Language Models [5.931099001882958]
2つの研究は、大きな言語モデル(LLM)が、影響力のある入力への暴露後の心理的変化をモデル化できるという仮説を検証した。
最初の研究では、Illusory Truth Effect(ITE)という一般的な影響のモードがテストされた。
第2の研究では、その説得力と政治的動員力を高めるために、ニュースの大衆的なフレーミングという、特定の影響の態勢について論じている。
論文 参考訳(メタデータ) (2023-03-10T16:53:30Z) - CausalDialogue: Modeling Utterance-level Causality in Conversations [83.03604651485327]
クラウドソーシングを通じて、CausalDialogueという新しいデータセットをコンパイルし、拡張しました。
このデータセットは、有向非巡回グラフ(DAG)構造内に複数の因果効果対を含む。
ニューラル会話モデルの訓練における発話レベルにおける因果性の影響を高めるために,Exponential Average Treatment Effect (ExMATE) と呼ばれる因果性強化手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T18:31:50Z) - Identifying Peer Influence in Therapeutic Communities Adjusting for Latent Homophily [1.6385815610837167]
薬物乱用や犯罪行為に対する対人的役割モデルの影響について検討した。
観測データに観測されていないホモフィリーが存在する場合のピアの影響を同定するために,潜時変動モデルを用いてネットワークをモデル化する。
以上の結果から,友人の卒業が住民の卒業に与える影響は,性別,人種,役割モデルの効果の定義によって異なることが示唆された。
論文 参考訳(メタデータ) (2022-03-27T06:47:28Z) - Causal Effect Estimation using Variational Information Bottleneck [19.6760527269791]
因果推論とは、介入が適用されるときの因果関係における因果効果を推定することである。
変分情報ボトルネック(CEVIB)を用いて因果効果を推定する手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T13:46:12Z) - Efficient Causal Inference from Combined Observational and
Interventional Data through Causal Reductions [68.6505592770171]
因果効果を推定する際の主な課題の1つである。
そこで本研究では,任意の数の高次元潜入共創者を置き換える新たな因果還元法を提案する。
パラメータ化縮小モデルを観測データと介入データから共同で推定する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T14:29:07Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。