論文の概要: A Dialectic Pipeline for Improving LLM Robustness
- arxiv url: http://arxiv.org/abs/2601.20659v1
- Date: Wed, 28 Jan 2026 14:42:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.979164
- Title: A Dialectic Pipeline for Improving LLM Robustness
- Title(参考訳): LLMロバスト性向上のためのダイアレクティックパイプライン
- Authors: Sara Candussio,
- Abstract要約: ドメイン固有のデータの微調整や、別のテキスト化されたホック検証器の訓練といった手法は、計算資源を必要とする。
本稿では,LLMの一般化能力を保ちながら,自己対話による解の質を向上する弁証的パイプラインを提案する。
提案した弁証法パイプラインは,標準モデル解の有意なマージンによって性能を向上できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assessing ways in which Language Models can reduce their hallucinations and improve the outputs' quality is crucial to ensure their large-scale use. However, methods such as fine-tuning on domain-specific data or the training of a separate \textit{ad hoc} verifier require demanding computational resources (not feasible for many user applications) and constrain the models to specific fields of knowledge. In this thesis, we propose a dialectic pipeline that preserves LLMs' generalization abilities while improving the quality of its answer via self-dialogue, enabling it to reflect upon and correct tentative wrong answers. We experimented with different pipeline settings, testing our proposed method on different datasets and on different families of models. All the pipeline stages are enriched with the relevant context (in an oracle-RAG setting) and a study on the impact of its summarization or its filtering is conducted. We find that our proposed dialectic pipeline is able to outperform by significative margins the standard model answers and that it consistently achieves higher performances than Chain-of-Thought only prompting.
- Abstract(参考訳): 言語モデルが幻覚を減らし、アウトプットの品質を向上させる方法を評価することは、大規模な使用を保証するために不可欠である。
しかし、ドメイン固有のデータの微調整や、別の \textit{ad hoc} 検証器の訓練のような手法では、(多くのユーザアプリケーションでは実現不可能な)計算資源を必要とし、モデルを特定の分野の知識に制約する。
本稿では, LLMの一般化能力を保ちながら, 自己対話による解の質を向上し, 仮の誤解を反映し, 訂正する弁証的パイプラインを提案する。
我々は、異なるパイプライン設定、異なるデータセットと異なるモデルのファミリーで提案されたメソッドをテストする実験を行った。
全てのパイプラインステージは関連するコンテキスト(オラクル・RAG設定)に富み、その要約やフィルタリングの影響について研究する。
提案した弁証法パイプラインは,標準モデルの解答の有意なマージンによって性能を向上できることがわかった。
関連論文リスト
- SICL-AT: Another way to adapt Auditory LLM to low-resource task [34.82834349882226]
聴覚大言語モデル(LLM)は,幅広い音声・音声理解タスクにおいて高い性能を示した。
低リソースや不慣れなタスクに適用すると、しばしば苦労します。
In-Context Learning (ICL)は、トレーニングなしの推論時間ソリューションを提供する。
論文 参考訳(メタデータ) (2026-01-26T19:15:16Z) - Reasoning Palette: Modulating Reasoning via Latent Contextualization for Controllable Exploration for (V)LMs [49.66344956133349]
推論能力は、大規模な(ビジョン)言語モデルのための推論時間性能と強化学習(RL)トレーニングの両方を形作る。
本稿では,戦略的文脈化のための潜在変数をモデルに付与する新しい潜在変調フレームワークであるReasoning Paletteを提案する。
論文 参考訳(メタデータ) (2025-12-19T03:32:53Z) - Decomposition-Enhanced Training for Post-Hoc Attributions In Language Models [64.49342399229529]
我々は、ポストホック帰属を推論問題として再編成し、回答を構成単位に分解し、それぞれ特定の文脈に結び付けることができると論じる。
DecompTuneは、モデルに中間的推論ステップとして解解分解を生成することを教えるポストトレーニング手法である。
DecompTuneは、広範な実験と改善を通じて、属性の品質を大幅に改善し、先行手法より優れ、最先端のフロンティアモデルに適合または超えている。
論文 参考訳(メタデータ) (2025-10-29T17:58:59Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Fine-Tuning or Fine-Failing? Debunking Performance Myths in Large Language Models [0.8399688944263842]
大きな言語モデル(LLM)は、入力クエリから人間のようなテキストを理解し、生成する能力を持つ。
本研究では、この概念を、レトリーバル拡張生成(RAG)パイプライン内のLLMの統合に拡張する。
データ抽出と文脈理解における微調整がLLMの能力に与える影響を評価する。
論文 参考訳(メタデータ) (2024-06-17T04:35:17Z) - Using Set Covering to Generate Databases for Holistic Steganalysis [2.089615335919449]
我々は、CSM(Cover Source Mismatch)の起源を研究するために、処理パイプラインのグリッドを探索する。
集合被覆グリードアルゴリズムを用いて、集合内の代表とパイプライン間の最大の後悔を最小限に抑える代表パイプラインを選択する。
我々の分析は、多様性を育むためには、デノイング、シャープニング、ダウンサンプリングといったパラメータが重要であることも示しています。
論文 参考訳(メタデータ) (2022-11-07T10:53:02Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。