論文の概要: The Lock-in Hypothesis: Stagnation by Algorithm
- arxiv url: http://arxiv.org/abs/2506.06166v1
- Date: Fri, 06 Jun 2025 15:31:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.532725
- Title: The Lock-in Hypothesis: Stagnation by Algorithm
- Title(参考訳): ロックイン仮説:アルゴリズムによる安定化
- Authors: Tianyi Alex Qiu, Zhonghao He, Tejasveer Chugh, Max Kleiman-Weiner,
- Abstract要約: 大きな言語モデル(LLM)のトレーニングとデプロイは、人間のユーザによるフィードバックループを生成する。
このフィードバックループは、ユーザの既存の価値観や信念を複雑にし、多様性の喪失と、偽の信念のロックインにつながる可能性がある、という仮説を立てる。
解析は、新しいGPTイテレーションのリリース後に突然、しかし持続的な多様性の低下を明らかにし、仮説化された人間とAIのフィードバックループと一致している。
- 参考スコア(独自算出の注目度): 1.4162937059181135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The training and deployment of large language models (LLMs) create a feedback loop with human users: models learn human beliefs from data, reinforce these beliefs with generated content, reabsorb the reinforced beliefs, and feed them back to users again and again. This dynamic resembles an echo chamber. We hypothesize that this feedback loop entrenches the existing values and beliefs of users, leading to a loss of diversity and potentially the lock-in of false beliefs. We formalize this hypothesis and test it empirically with agent-based LLM simulations and real-world GPT usage data. Analysis reveals sudden but sustained drops in diversity after the release of new GPT iterations, consistent with the hypothesized human-AI feedback loop. Code and data available at https://thelockinhypothesis.com
- Abstract(参考訳): モデルはデータから人間の信念を学び、これらの信念を生成されたコンテンツで強化し、強化された信念を再吸収し、繰り返しユーザーへフィードバックする。
この力学はエコーチャンバーに似ている。
このフィードバックループは、ユーザの既存の価値観や信念を複雑にし、多様性の喪失と、偽の信念のロックインにつながる可能性がある、という仮説を立てる。
我々はこの仮説を定式化し、エージェントベースのLCMシミュレーションと実世界のGPT利用データで実証的に検証する。
解析は、新しいGPTイテレーションのリリース後に突然、しかし持続的な多様性の低下を明らかにし、仮説化された人間とAIのフィードバックループと一致している。
コードとデータはhttps://thelockinhypothesis.comで公開されている。
関連論文リスト
- Higher-Order Binding of Language Model Virtual Personas: a Study on Approximating Political Partisan Misperceptions [4.234771450043289]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートする能力が高まっている。
本稿では, マルチターンインタビュー文として, 合成ユーザバックストリーを用いた仮想ペルソナ構築手法を提案する。
我々の生成したバックストリーは、より長く、細部が豊富であり、従来の方法と比較して、特定の個人を記述するのに一貫性がある。
論文 参考訳(メタデータ) (2025-04-16T00:10:34Z) - I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - Belief Revision: The Adaptability of Large Language Models Reasoning [63.0281286287648]
本稿では,LMの信念修正能力をテストするための新しいデータセットであるBelief-Rを紹介する。
このタスクは、人間が事前の推論を抑える方法にインスパイアされ、新しく提案されたデルタ推論フレームワーク内のLMを評価する。
様々なプロンプト戦略にまたがる$sim$30 LMを評価した結果,LMは一般的に,新たな情報に反応して信念を適切に修正するのに苦慮していることがわかった。
論文 参考訳(メタデータ) (2024-06-28T09:09:36Z) - Generalized Regression with Conditional GANs [2.4171019220503402]
本稿では,学習データセットにおける特徴ラベルペアと,対応する入力と組み合わせて出力を区別できない予測関数を学習することを提案する。
回帰に対するこのアプローチは、私たちが適合するデータの分布に対する仮定を減らし、表現能力が向上することを示す。
論文 参考訳(メタデータ) (2024-04-21T01:27:47Z) - Keep Your Friends Close and Your Counterfactuals Closer: Improved
Learning From Closest Rather Than Plausible Counterfactual Explanations in an
Abstract Setting [6.883906273999368]
対実的説明(CFE)は、モデル入力の変更が特定の方法でその予測を変更したことを強調している。
近年の革新は、自動生成されたCFEに対する計算可能性の概念を導入している。
初級ユーザを対象とした反復学習設計において,計算可能なCFEの客観的および主観的ユーザビリティを評価する。
論文 参考訳(メタデータ) (2022-05-11T14:07:57Z) - Dialogue Response Ranking Training with Large-Scale Human Feedback Data [52.12342165926226]
ソーシャルメディアのフィードバックデータを利用して、フィードバック予測のための大規模なトレーニングデータセットを構築します。
我々は,1300万対の人間のフィードバックデータに基づくGPT-2モデルであるDialogRPTを訓練した。
我々のランキングは、Redditのフィードバックを予測する上で、従来のダイアログの難易度ベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-15T10:50:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。