論文の概要: Cross-Question Method Reuse in Large Language Models: From Word-Level Prediction to Rational Logical-Layer Reasoning
- arxiv url: http://arxiv.org/abs/2509.05660v1
- Date: Sat, 06 Sep 2025 09:34:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.637111
- Title: Cross-Question Method Reuse in Large Language Models: From Word-Level Prediction to Rational Logical-Layer Reasoning
- Title(参考訳): 大規模言語モデルにおけるクロスクエスト手法の再利用:単語レベル予測から論理層推論へ
- Authors: Hong Su,
- Abstract要約: 我々は,メソッド再利用の範囲を拡張し,類似度が低い問題に対処する。
このアプローチを、質問が部分的な特徴や隠れた特徴を共有する場合に拡張する。
- 参考スコア(独自算出の注目度): 0.11844977816228043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have been widely applied to assist in finding solutions for diverse questions. Prior work has proposed representing a method as a pair of a question and its corresponding solution, enabling method reuse. However, existing approaches typically require the questions to be highly similar. In this paper, we extend the scope of method reuse to address questions with low similarity or with hidden similarities that are not explicitly observable. For questions that are similar in a general-specific sense (i.e., broader or narrower in scope), we propose to first separate the question and solution, rather than directly feeding the pair to the LLM. The LLM is then guided to adapt the solution to new but related questions, allowing it to focus on solution transfer rather than question recognition. Furthermore, we extend this approach to cases where questions only share partial features or hidden characteristics. This enables cross-question method reuse beyond conventional similarity constraints. Experimental verification shows that our scope-extension approach increases the probability of filtering out reusable solutions, thereby improving the effectiveness of cross-question method reuse.
- Abstract(参考訳): 大規模言語モデル(LLM)は多様な質問に対する解決策を見つけるのに広く応用されている。
従来の研究は、メソッドを質問とそれに対応するソリューションのペアとして表現し、メソッドの再利用を可能にした。
しかし、既存のアプローチでは、質問に非常によく似たものが必要である。
本稿では,メソッド再利用の範囲を広げて,類似度が低い,あるいは明示的に観察できない類似点が隠された問題に対処する。
一般の意味で類似した質問(すなわち、範囲が広く狭い質問)に対しては、ペアをLSMに直接供給するのではなく、まず質問と解を分離することを提案する。
LLMは、新しいが関連する質問にソリューションを適用するためにガイドされ、質問認識よりもソリューション転送に焦点を合わせることができる。
さらに,この手法を,部分的特徴や隠れ特性のみを問う場合に拡張する。
これにより、従来の類似性制約を超えて、クロスクエストメソッドの再利用が可能になる。
実験により, 再利用可能な解をフィルタリングする確率が増大し, クロスクエスト法の有効性が向上することが確認された。
関連論文リスト
- QEQR: An Exploration of Query Expansion Methods for Question Retrieval in CQA Services [3.2732617374981867]
我々は,単語類似度に基づく手法を用い,質問類似度に基づく手法を提案し,これらの手法を選択的に拡張して質問を拡張する。
提案手法は,クエリ拡張を伴わない最良性能のベースラインと比較して,1.8%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2024-11-23T11:47:03Z) - ELOQ: Resources for Enhancing LLM Detection of Out-of-Scope Questions [52.33835101586687]
本研究では,検索した文書が意味的に類似しているように見えるスコープ外質問について検討するが,答えるために必要な情報がない。
本稿では,閉経後の文書から多様なスコープ外質問を自動的に生成するための,幻覚に基づくELOQを提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - Passage-specific Prompt Tuning for Passage Reranking in Question Answering with Large Language Models [11.716595438057997]
オープンドメイン質問応答(PSPT)における再ランク付けのためのパス固有プロンプトチューニングを提案する。
PSPTは、学習可能なパス固有のソフトプロンプトを微調整するパラメータ効率の手法である。
我々は,Llama-2-chat-7Bモデルを用いた3つの公開領域質問応答データセットの広範な実験を行った。
論文 参考訳(メタデータ) (2024-05-31T07:43:42Z) - Open-ended Commonsense Reasoning with Unrestricted Answer Scope [47.14397700770702]
Open-ended Commonsense Reasoning は、1) 回答候補の短いリスト、2) 事前定義された回答スコープを提供することなく、Commonsenseの問題を解決するものとして定義される。
本研究では,事前学習した言語モデルを用いて,外部知識に基づく推論経路を反復的に検索する。
推論パスは、常識的な質問に対する最も正確な答えを特定するのに役立つ。
論文 参考訳(メタデータ) (2023-10-18T02:45:54Z) - Modeling Uncertainty and Using Post-fusion as Fallback Improves Retrieval Augmented Generation with LLMs [80.74263278847063]
検索されたパスと大きな言語モデル(LLM)の統合は、オープンドメインの質問応答の改善に大きく貢献している。
本稿では,検索したパスをLLMと組み合わせて回答生成を向上させる方法について検討する。
論文 参考訳(メタデータ) (2023-08-24T05:26:54Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z) - A Mutual Information Maximization Approach for the Spurious Solution
Problem in Weakly Supervised Question Answering [60.768146126094955]
弱々しい教師付き質問応答は通常、最終的な答えのみを監督信号として持つ。
偶然に正解を導出する刺激的な解が多数存在するかもしれないが、そのような解の訓練はモデルの性能を損なう可能性がある。
本稿では,質問応答対と予測解間の相互情報の最大化により,このような意味的相関を明示的に活用することを提案する。
論文 参考訳(メタデータ) (2021-06-14T05:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。