論文の概要: Scaling Human Judgment in Community Notes with LLMs
- arxiv url: http://arxiv.org/abs/2506.24118v1
- Date: Mon, 30 Jun 2025 17:57:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.189225
- Title: Scaling Human Judgment in Community Notes with LLMs
- Title(参考訳): LLMを用いたコミュニティノートにおける人間の判断のスケーリング
- Authors: Haiwen Li, Soham De, Manon Revel, Andreas Haupt, Brad Miller, Keith Coleman, Jay Baxter, Martin Saveski, Michiel A. Bakker,
- Abstract要約: 本稿では,LLM時代のコミュニティノートの新しいパラダイムを論じる。
それは、人間とLLMの両方がメモを書くことができるオープンなエコシステムを論じ、どのメモが人間の手にあるかを示すのに十分役立つかを判断する。
本稿では,このようなシステムがどのように機能するか,そのメリット,導入する重要な新たなリスクと課題,そしてこれらの課題を解決し,このアプローチの可能性を実現するための研究課題について述べる。
- 参考スコア(独自算出の注目度): 6.355371297135059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper argues for a new paradigm for Community Notes in the LLM era: an open ecosystem where both humans and LLMs can write notes, and the decision of which notes are helpful enough to show remains in the hands of humans. This approach can accelerate the delivery of notes, while maintaining trust and legitimacy through Community Notes' foundational principle: A community of diverse human raters collectively serve as the ultimate evaluator and arbiter of what is helpful. Further, the feedback from this diverse community can be used to improve LLMs' ability to produce accurate, unbiased, broadly helpful notes--what we term Reinforcement Learning from Community Feedback (RLCF). This becomes a two-way street: LLMs serve as an asset to humans--helping deliver context quickly and with minimal effort--while human feedback, in turn, enhances the performance of LLMs. This paper describes how such a system can work, its benefits, key new risks and challenges it introduces, and a research agenda to solve those challenges and realize the potential of this approach.
- Abstract(参考訳): 本稿は,LLM時代のコミュニティノートの新しいパラダイムとして,人間とLLMの両方がノートを書けるオープンエコシステムと,人間の手にある遺物を示すのに十分なノートの判断について論じる。
このアプローチは、コミュニティノートの基本原則を通じて信頼と正当性を保ちながら、ノートの配信を加速することができる。
さらに、この多様なコミュニティからのフィードバックは、コミュニティフィードバックからの強化学習(Reinforcement Learning from Community Feedback, RLCF)と呼ばれる、正確で偏見のない、広く有用なメモを作成するLLMの能力を改善するために使用できる。
LLMは、人間にとっての資産として機能する — コンテキストを迅速かつ最小限の努力で提供し、その一方で、人間からのフィードバックによって、LLMのパフォーマンスが向上する。
本稿では,このようなシステムがどのように機能するか,そのメリット,導入する重要な新たなリスクと課題,そしてこれらの課題を解決し,このアプローチの可能性を実現するための研究課題について述べる。
関連論文リスト
- Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - Bayesian Teaching Enables Probabilistic Reasoning in Large Language Models [50.16340812031201]
我々は,大規模言語モデル (LLM) がベイジアンフレームワークから期待されているように,その信念を更新しないことを示す。
我々は、最適ベイズモデルの予測を模倣するように訓練することで、ベイズ的な推論をLLMに教える。
論文 参考訳(メタデータ) (2025-03-21T20:13:04Z) - Look Before You Leap: Enhancing Attention and Vigilance Regarding Harmful Content with GuidelineLLM [53.79753074854936]
大規模言語モデル(LLM)は、出現するジェイルブレイク攻撃に対してますます脆弱である。
この脆弱性は現実世界のアプリケーションに重大なリスクをもたらす。
本稿では,ガイドラインLLMという新しい防御パラダイムを提案する。
論文 参考訳(メタデータ) (2024-12-10T12:42:33Z) - Your Weak LLM is Secretly a Strong Teacher for Alignment [19.33906256866585]
既存のアライメントフレームワークは、高価な人的労力または高い計算コストの形で制約を提示します。
本稿では,上位層モデルよりも資源集約度が低い弱いLLMを用いた,有望な中間層を探索する。
弱いLLMは、完全に注釈付けされたデータに匹敵する、あるいは超えるフィードバックを提供することができる。
論文 参考訳(メタデータ) (2024-09-13T13:24:52Z) - Comuniqa : Exploring Large Language Models for improving speaking skills [2.8227892155844088]
本稿では,Large Language Models (LLMs) の英語能力向上の可能性について検討する。
人工知能(AI)の最近の進歩は、限界を克服する有望なソリューションを提供する。
我々は,英語のスキル向上を目的とした,新しいLLMベースのシステムであるComuniqaを提案する。
論文 参考訳(メタデータ) (2024-01-28T07:37:33Z) - AI Transparency in the Age of LLMs: A Human-Centered Research Roadmap [46.98582021477066]
強力な大規模言語モデル(LLM)の台頭は、イノベーションの絶大な機会をもたらすだけでなく、個人や社会全体のリスクを悪化させます。
我々は LLM と LLM を注入したアプリケーションの開発とデプロイを責任を持って行うための重要な瞬間に到達した。
LLMの透明性を提供するための新しいアプローチを追求することが最重要である。
論文 参考訳(メタデータ) (2023-06-02T22:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。