論文の概要: LLM as a Broken Telephone: Iterative Generation Distorts Information
- arxiv url: http://arxiv.org/abs/2502.20258v1
- Date: Thu, 27 Feb 2025 16:46:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 15:15:47.144481
- Title: LLM as a Broken Telephone: Iterative Generation Distorts Information
- Title(参考訳): 壊れた電話機としてのLCM:反復生成歪み情報
- Authors: Amr Mohamed, Mingmeng Geng, Michalis Vazirgiannis, Guokan Shang,
- Abstract要約: この研究は、連鎖した人間のコミュニケーションにおける「壊れた電話」効果にインスパイアされている。
言語の選択や連鎖の複雑さの影響を受け、歪みは時間の経過とともに蓄積する。
- 参考スコア(独自算出の注目度): 22.064570490052446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models are increasingly responsible for online content, concerns arise about the impact of repeatedly processing their own outputs. Inspired by the "broken telephone" effect in chained human communication, this study investigates whether LLMs similarly distort information through iterative generation. Through translation-based experiments, we find that distortion accumulates over time, influenced by language choice and chain complexity. While degradation is inevitable, it can be mitigated through strategic prompting techniques. These findings contribute to discussions on the long-term effects of AI-mediated information propagation, raising important questions about the reliability of LLM-generated content in iterative workflows.
- Abstract(参考訳): 大規模な言語モデルがオンラインコンテンツに対してますます責任を負うようになるにつれて、自分自身のアウトプットを繰り返すことの影響が懸念される。
連鎖型コミュニケーションにおける「壊れた電話」の効果に着想を得て,LLMが反復生成によって同様に歪曲するかどうかを考察した。
翻訳に基づく実験により、言語選択や連鎖の複雑さの影響を受け、歪みは時間の経過とともに蓄積することがわかった。
劣化は避けられないが、戦略的な推進技術によって緩和することができる。
これらの知見は、AIによる情報伝達の長期的影響に関する議論に寄与し、反復的ワークフローにおけるLLM生成コンテンツの信頼性に関する重要な疑問を提起する。
関連論文リスト
- Accommodate Knowledge Conflicts in Retrieval-augmented LLMs: Towards Reliable Response Generation in the Wild [11.058848731627233]
大規模言語モデル (LLM) には高度な情報検索システムがある。
LLMは、しばしば内部記憶と検索された外部情報の間の知識の衝突に直面している。
スウィンVIBは,変分情報ボトルネックモデルのパイプラインを,検索した情報の適応的拡張に統合する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-04-17T14:40:31Z) - Beyond speculation: Measuring the growing presence of LLM-generated texts in multilingual disinformation [5.088284972478787]
大規模言語モデル(LLM)の高度化は、偽情報誤用の懸念を引き起こす。
自然生態系の制限によって恐怖が高められたことは過大評価されていると主張する者もいる一方で、特定の「長い」状況が見過ごされるリスクに直面していると主張する者もいる。
我々の研究は、最新の現実世界の偽情報データセットにLDMの存在を示す最初の実証的な証拠を提供することによって、この議論を橋渡しします。
論文 参考訳(メタデータ) (2025-03-29T22:47:53Z) - END: Early Noise Dropping for Efficient and Effective Context Denoising [60.24648712022382]
大規模言語モデル(LLM)は、幅広い自然言語処理タスクにおいて顕著な性能を示している。
彼らはしばしば、出力品質を低下させる入力シーケンスにおける無関係またはノイズの文脈に気を散らされる。
我々は,LLMの微調整を必要とせず,この問題を緩和するための新しい手法であるEarly Noise Dropping (textscEND)を紹介した。
論文 参考訳(メタデータ) (2025-02-26T08:07:17Z) - When LLMs Play the Telephone Game: Cumulative Changes and Attractors in Iterated Cultural Transmissions [17.12201783898455]
大規模言語モデル(LLM)は相互に相互作用し、オンラインで大量のテキストを生成する。
単一の出力レベルで無視される小さなバイアスは、反復的なインタラクションで増幅されるリスクである。
テキスト毒性, 肯定性, 難易度, および伝達鎖間の長さの進化を追跡することにより, バイアスやアトラクタの存在を明らかにする。
論文 参考訳(メタデータ) (2024-07-05T13:44:09Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - Catching Chameleons: Detecting Evolving Disinformation Generated using Large Language Models [16.408611714514976]
我々は,事前学習した言語モデルの一般的な事実チェック機能と協調的に活用するパラメータ効率の高いDLD(Detecting Evolving LLM-Generative Disinformation)を提案する。
実験の結果, TextitDELD は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-26T00:21:39Z) - Retrieve Only When It Needs: Adaptive Retrieval Augmentation for Hallucination Mitigation in Large Language Models [68.91592125175787]
幻覚は、大規模言語モデル(LLM)の実践的実装において重要な課題となる。
本稿では,幻覚に対処するための選択的検索拡張プロセスにより,Lowenを改良する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-16T11:55:40Z) - Feedback Loops With Language Models Drive In-Context Reward Hacking [78.9830398771605]
フィードバックループがコンテキスト内報酬ハッキング(ICRH)を引き起こす可能性があることを示す。
ICRHに繋がる2つのプロセス、すなわちアウトプット・リファインメントとポリシー・リファインメントを同定し研究する。
AI開発が加速するにつれて、フィードバックループの効果が増大する。
論文 参考訳(メタデータ) (2024-02-09T18:59:29Z) - A Closer Look at the Limitations of Instruction Tuning [52.587607091917214]
インストラクションチューニング(IT)は,大規模言語モデル(LLM)における知識やスキルの向上に失敗することを示す。
また、一般的なIT改善手法は、シンプルなLoRA微調整モデルよりも性能改善につながるものではないことも示している。
この結果から,事前学習した知識のみから生成した応答は,オープンソースデータセット上でITから新たな知識を学習するモデルによって,一貫した応答性能が向上することが判明した。
論文 参考訳(メタデータ) (2024-02-03T04:45:25Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。