論文の概要: The Flaws of Others: An LLM-driven Framework for Scientific Knowledge Production
- arxiv url: http://arxiv.org/abs/2507.06565v1
- Date: Wed, 09 Jul 2025 05:39:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.485654
- Title: The Flaws of Others: An LLM-driven Framework for Scientific Knowledge Production
- Title(参考訳): 他者の欠陥:科学知識生産のためのLLM駆動フレームワーク
- Authors: Juan B. Gutiérrez,
- Abstract要約: 無効化は、真実からの漂流、自己修復、新鮮な製法、外的検出の4つの危険性を示す。
ドリフトと自己修復のみに支配されるネットワークは、緩やかなエラー率で安定化する。
我々はオープンソースのemphFlaws-of-Others(FOO)アルゴリズムでピアレビューを運用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large-language models turn writing into a live exchange between humans and software. We capture this new medium with a discursive-network model that treats people and LLMs as equal nodes and tracks how their statements circulate. Broadening the focus from isolated hallucinations, we define invalidation (any factual, logical, or structural breach) and show it follows four hazards: drift from truth, self-repair, fresh fabrication, and external detection. A general mathematical model of discursive networks is developed to provide valuable insights: A network governed only by drift and self-repair stabilizes at a modest error rate; adding fabrication reproduces the high rates seen in current LLMs. Giving each false claim even a small chance of peer review shifts the system to a truth-dominant state. We operationalize peer review with the open-source \emph{Flaws-of-Others (FOO) algorithm}: a configurable loop in which any set of agents critique one another while a harmoniser merges their verdicts. The takeaway is practical and cultural: reliability in this new medium comes not from perfecting single models but from wiring imperfect ones into networks that keep each other honest.
- Abstract(参考訳): 大規模言語モデルは、文章を人間とソフトウェアの間のライブ交換に変えます。
我々は、人やLSMを等しいノードとして扱い、それらのステートメントがどのように循環するかを追跡する、分散ネットワークモデルを用いて、この新しい媒体をキャプチャする。
孤立した幻覚から焦点を広げて、無効化(あらゆる事実、論理的、構造的欠陥)を定義し、真実からのドリフト、自己修復、新鮮な製造、外的検出の4つの危険性を示す。
ドリフトと自己修復のみに支配されるネットワークは、わずかなエラー率で安定化する; 製造を追加することで、現在のLLMで見られる高いレートを再現する。
ピアレビューの小さなチャンスさえも、偽のクレームを与えると、システムは真理に支配的な状態に移行する。
我々はオープンソースの「emph{Flaws-of-Others(FOO)」アルゴリズムでピアレビューを運用する。
この新しいメディアの信頼性は、単一のモデルを完璧にすることではなく、不完全なモデルを互いに誠実に保つネットワークに配線することにある。
関連論文リスト
- Factual Self-Awareness in Language Models: Representation, Robustness, and Scaling [56.26834106704781]
大規模言語モデル(LLM)のユビキタス展開における主要な関心事の一つは、生成されたコンテンツの事実的誤りである。
我々は, LLMの内部コンパスの存在を裏付ける証拠を提供し, 生成時の事実的リコールの正しさを規定する。
モデルサイズにわたる実験のスケールとトレーニングのダイナミクスは、トレーニング中に自己認識が急速に出現し、中間層でピークとなることを浮き彫りにしている。
論文 参考訳(メタデータ) (2025-05-27T16:24:02Z) - Everything You Wanted to Know About LLM-based Vulnerability Detection But Were Afraid to Ask [30.819697001992154]
大規模言語モデルは、自動脆弱性検出のための有望なツールである。
LLMは現実世界の脆弱性を検出するのに本当に効果的か?
本稿では, LLM は (i) 信頼できないこと, (ii) コードパッチに敏感であること, (iii) モデルスケールにまたがる性能評価の3つを, 広く支持されているコミュニティの信念に異議を唱える。
論文 参考訳(メタデータ) (2025-04-18T05:32:47Z) - Multi-round, Chain-of-thought Post-editing for Unfaithful Summaries [10.712226955584798]
近年の大規模言語モデル (LLM) は、自然言語理解および生成タスクの実行において顕著な能力を示している。
ニュース要約における忠実度評価におけるLCMの使用について検討し,人的判断と強い相関関係が得られた。
我々は、生成した要約とソース・ニュース・ドキュメントの現実的矛盾を特定・修正するための様々なチェーン・オブ・シークレット・プロンプトを実験した。
論文 参考訳(メタデータ) (2025-01-20T04:55:43Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Pride and Prejudice: LLM Amplifies Self-Bias in Self-Refinement [75.7148545929689]
大規模言語モデル(LLM)は、特定のタスクの自己フィードバックを通じてパフォーマンスを向上し、他のタスクを劣化させる。
我々は、LSMの自己バイアス(自称世代を好む傾向)を正式に定義する。
我々は、翻訳、制約付きテキスト生成、数学的推論の6つのLCMを解析する。
論文 参考訳(メタデータ) (2024-02-18T03:10:39Z) - Self-Debiasing Large Language Models: Zero-Shot Recognition and
Reduction of Stereotypes [73.12947922129261]
ステレオタイピングを減らすために,大規模言語モデルのゼロショット機能を活用している。
自己嫌悪は、9つの異なる社会集団におけるステレオタイピングの度合いを著しく低下させることが示される。
この研究が、バイアス軽減のための他のゼロショット技術に関する調査をオープンにすることを願っている。
論文 参考訳(メタデータ) (2024-02-03T01:40:11Z) - DoLa: Decoding by Contrasting Layers Improves Factuality in Large
Language Models [79.01926242857613]
大型言語モデル(LLM)は幻覚を起こす傾向があり、事前訓練中に見られる事実から逸脱した内容を生成する。
事前学習したLLMによる幻覚を低減するための簡単な復号法を提案する。
コントラスティング・レイヤ(DoLa)アプローチによるこのデコーディングは,事実知識をよりよく提示し,誤った事実の生成を減らすことができる。
論文 参考訳(メタデータ) (2023-09-07T17:45:31Z) - LAP: An Attention-Based Module for Concept Based Self-Interpretation and
Knowledge Injection in Convolutional Neural Networks [2.8948274245812327]
本稿では,自己解釈性を実現するため,新しい注意型プール層であるLAP(Local Attention Pooling)を提案する。
LAPはどんな畳み込みニューラルネットワークにも簡単にプラグインできる。
LAPは一般的なホワイトボックスの説明法よりも、人間の理解しやすく忠実なモデル解釈を提供する。
論文 参考訳(メタデータ) (2022-01-27T21:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。