論文の概要: Addressing LLM Diversity by Infusing Random Concepts
- arxiv url: http://arxiv.org/abs/2601.18053v1
- Date: Mon, 26 Jan 2026 00:53:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.599614
- Title: Addressing LLM Diversity by Infusing Random Concepts
- Title(参考訳): ランダム概念の注入によるLLMの多様性への取り組み
- Authors: Pulin Agrawal, Prasoon Goyal,
- Abstract要約: 大規模言語モデル(LLM)は、限られた多様性を持つ出力を生成することが知られている。
本研究では,プロンプトにランダムな概念を注入することで,生成した出力の多様性が向上するかどうかを検討する。
- 参考スコア(独自算出の注目度): 0.3951835393164164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are known to produce outputs with limited diversity. In this work, we study whether infusing random concepts in the prompts can improve the diversity of the generated outputs. To benchmark the approach, we design a systematic evaluation protocol which involves prompting an LLM with questions of the form "Name 10 Hollywood actors", and analyzing diversity measures of the resulting LLM outputs. Our experiments on multiple LLMs show that prepending random words/sentences unrelated to the prompt result in greater diversity in the outputs of LLMs. We believe that this promising result and the evaluation protocol opens up interesting avenues for future work, such as how infusing randomness into LLMs could be applied to other domains. Further, the evaluation protocol could also inspire research into benchmarking LLM diversity more systematically.
- Abstract(参考訳): 大規模言語モデル(LLM)は、限られた多様性を持つ出力を生成することが知られている。
本研究では,プロンプトにランダムな概念を注入することで,生成した出力の多様性が向上するかどうかを検討する。
提案手法をベンチマークするために,LLM に "Name 10 Hollywood actor" という形式の質問をさせ,その結果の LLM 出力の多様性を解析するシステム評価プロトコルを設計した。
複数 LLM に対する実験により,先行するランダムな単語/文が直接関連しない場合,LLM の出力がより多様になることが示された。
我々は、この有望な結果と評価プロトコルが、LLMにランダム性を注入する方法を他の領域に適用する方法など、将来の研究に興味深い道を開くと信じている。
さらに、評価プロトコルは、LLMの多様性をより体系的にベンチマークする研究を刺激する可能性がある。
関連論文リスト
- Training-free LLM Verification via Recycling Few-shot Examples [11.796208194946141]
ReFeriはベイズのルールから動機付けられた2つの異なるスコアを組み合わせて生成した出力を評価し、その後候補を選択する。
3つの異なるLLMと7つの多様なタスクによる実験により、我々のフレームワークはLLMの精度を大幅に向上することを示した。
論文 参考訳(メタデータ) (2025-06-08T10:02:07Z) - Reasoning-Aligned Perception Decoupling for Scalable Multi-modal Reasoning [95.44766931218896]
MLLM(Multi-modal large language model)は、テキストベースの推論に遅れを取っている。
本稿では,MLLMの推論コンポーネントをモジュール化し,容易に置き換え可能なパーセプション推論デカップリングを提案する。
本稿では,視覚知覚最適化(VPO)と呼ばれる新しい強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-05T02:28:07Z) - PEDAL: Enhancing Greedy Decoding with Large Language Models using Diverse Exemplars [1.450405446885067]
多様な推論経路を持つ自己認識技術は、大言語モデル(LLM)を用いたテキスト生成において顕著な性能向上を示した。
PEDALは,多種多様な模範的プロンプトの強みとLLMに基づくアグリゲーションを組み合わせて,総合的な性能向上を実現するハイブリッドな自己組織化手法である。
論文 参考訳(メタデータ) (2024-08-16T17:54:09Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - DnA-Eval: Enhancing Large Language Model Evaluation through Decomposition and Aggregation [75.81096662788254]
大規模言語モデル(LLM)はスケーラブルで経済的な評価指標である。
これらの評価者がどの程度信頼できるかという問題は、重要な研究課題として浮上している。
本稿では,デコンプリートとアグリゲートを提案し,その評価プロセスを教育実践に基づいて異なる段階に分解する。
論文 参考訳(メタデータ) (2024-05-24T08:12:30Z) - Bridging the Gap between Different Vocabularies for LLM Ensemble [10.669552498083709]
様々な大言語モデル(LLM)における語彙の相違は、これまでの研究を制約してきた。
語彙アライメント(EVA)を用いたLLMのアンサンブル手法を提案する。
EVAは様々なLLM間の語彙ギャップを橋渡しし、各生成ステップで巧妙にアンサンブルすることができる。
論文 参考訳(メタデータ) (2024-04-15T06:28:20Z) - Assessing the Reliability of Large Language Model Knowledge [78.38870272050106]
大規模言語モデル(LLM)は、知識探索タスクにおける高い性能のため、知識ベースとして扱われてきた。
LLMが実際に正しい答えを連続的に生成する能力をどのように評価するか。
LLMの信頼性を直接測定するための新しい指標であるMOdel kNowledge relIabiliTy score (MONITOR)を提案する。
論文 参考訳(メタデータ) (2023-10-15T12:40:30Z) - Evaluating Large Language Models at Evaluating Instruction Following [54.49567482594617]
我々は,命令追従出力の識別におけるLLM評価器の能力をテストするために,挑戦的なメタ評価ベンチマーク LLMBar を導入する。
異なる評価器がLLMBarに対して異なる性能を示し、最高の評価器でさえ改善の余地があることが判明した。
論文 参考訳(メタデータ) (2023-10-11T16:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。