論文の概要: LLM as a Broken Telephone: Iterative Generation Distorts Information
- arxiv url: http://arxiv.org/abs/2502.20258v1
- Date: Thu, 27 Feb 2025 16:46:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:59:12.155188
- Title: LLM as a Broken Telephone: Iterative Generation Distorts Information
- Title(参考訳): 壊れた電話機としてのLCM:反復生成歪み情報
- Authors: Amr Mohamed, Mingmeng Geng, Michalis Vazirgiannis, Guokan Shang,
- Abstract要約: この研究は、連鎖した人間のコミュニケーションにおける「壊れた電話」効果にインスパイアされている。
言語の選択や連鎖の複雑さの影響を受け、歪みは時間の経過とともに蓄積する。
- 参考スコア(独自算出の注目度): 22.064570490052446
- License:
- Abstract: As large language models are increasingly responsible for online content, concerns arise about the impact of repeatedly processing their own outputs. Inspired by the "broken telephone" effect in chained human communication, this study investigates whether LLMs similarly distort information through iterative generation. Through translation-based experiments, we find that distortion accumulates over time, influenced by language choice and chain complexity. While degradation is inevitable, it can be mitigated through strategic prompting techniques. These findings contribute to discussions on the long-term effects of AI-mediated information propagation, raising important questions about the reliability of LLM-generated content in iterative workflows.
- Abstract(参考訳): 大規模な言語モデルがオンラインコンテンツに対してますます責任を負うようになるにつれて、自分自身のアウトプットを繰り返すことの影響が懸念される。
連鎖型コミュニケーションにおける「壊れた電話」の効果に着想を得て,LLMが反復生成によって同様に歪曲するかどうかを考察した。
翻訳に基づく実験により、言語選択や連鎖の複雑さの影響を受け、歪みは時間の経過とともに蓄積することがわかった。
劣化は避けられないが、戦略的な推進技術によって緩和することができる。
これらの知見は、AIによる情報伝達の長期的影響に関する議論に寄与し、反復的ワークフローにおけるLLM生成コンテンツの信頼性に関する重要な疑問を提起する。
関連論文リスト
- Exploring Knowledge Boundaries in Large Language Models for Retrieval Judgment [56.87031484108484]
大規模言語モデル(LLM)は、その実践的応用でますます認識されている。
Retrieval-Augmented Generation (RAG)はこの課題に取り組み、LLMに大きな影響を与えている。
中立あるいは有害な結果をもたらす検索要求を最小化することにより、時間と計算コストの両方を効果的に削減できる。
論文 参考訳(メタデータ) (2024-11-09T15:12:28Z) - When LLMs Play the Telephone Game: Cumulative Changes and Attractors in Iterated Cultural Transmissions [17.12201783898455]
大規模言語モデル(LLM)は相互に相互作用し、オンラインで大量のテキストを生成する。
単一の出力レベルで無視される小さなバイアスは、反復的なインタラクションで増幅されるリスクである。
テキスト毒性, 肯定性, 難易度, および伝達鎖間の長さの進化を追跡することにより, バイアスやアトラクタの存在を明らかにする。
論文 参考訳(メタデータ) (2024-07-05T13:44:09Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - Catching Chameleons: Detecting Evolving Disinformation Generated using Large Language Models [16.408611714514976]
我々は,事前学習した言語モデルの一般的な事実チェック機能と協調的に活用するパラメータ効率の高いDLD(Detecting Evolving LLM-Generative Disinformation)を提案する。
実験の結果, TextitDELD は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-26T00:21:39Z) - Resilience of Large Language Models for Noisy Instructions [38.25524275497566]
大規模言語モデル(LLM)は、ヒューマンコマンドを解釈し、様々なタスク間でテキストを生成する強力なツールとして登場した。
本研究では, ASR(Automatic Speech Recognition)エラー, OCR(Optical Character Recognition)エラー, 文法的誤り, 気まぐれな内容を含む5種類の障害に対するLLMのレジリエンスについて検討した。
以上の結果から,一部のLCMは特定の騒音に対する耐性を示すが,全体的な性能は著しく低下することが明らかとなった。
論文 参考訳(メタデータ) (2024-04-15T12:55:08Z) - CausalBench: A Comprehensive Benchmark for Causal Learning Capability of LLMs [27.362012903540492]
因果関係を理解する能力は、大言語モデル(LLM)の出力説明と反実的推論の能力に大きな影響を及ぼす。
因果関係を理解する能力は、大言語モデル(LLM)の出力説明と反実的推論の能力に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2024-04-09T14:40:08Z) - Retrieve Only When It Needs: Adaptive Retrieval Augmentation for Hallucination Mitigation in Large Language Models [68.91592125175787]
幻覚は、大規模言語モデル(LLM)の実践的実装において重要な課題となる。
本稿では,幻覚に対処するための選択的検索拡張プロセスにより,Lowenを改良する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-16T11:55:40Z) - Feedback Loops With Language Models Drive In-Context Reward Hacking [78.9830398771605]
フィードバックループがコンテキスト内報酬ハッキング(ICRH)を引き起こす可能性があることを示す。
ICRHに繋がる2つのプロセス、すなわちアウトプット・リファインメントとポリシー・リファインメントを同定し研究する。
AI開発が加速するにつれて、フィードバックループの効果が増大する。
論文 参考訳(メタデータ) (2024-02-09T18:59:29Z) - A Closer Look at the Limitations of Instruction Tuning [52.587607091917214]
インストラクションチューニング(IT)は,大規模言語モデル(LLM)における知識やスキルの向上に失敗することを示す。
また、一般的なIT改善手法は、シンプルなLoRA微調整モデルよりも性能改善につながるものではないことも示している。
この結果から,事前学習した知識のみから生成した応答は,オープンソースデータセット上でITから新たな知識を学習するモデルによって,一貫した応答性能が向上することが判明した。
論文 参考訳(メタデータ) (2024-02-03T04:45:25Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。