論文の概要: Complex QA and language models hybrid architectures, Survey
- arxiv url: http://arxiv.org/abs/2302.09051v1
- Date: Fri, 17 Feb 2023 18:31:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 13:49:20.979519
- Title: Complex QA and language models hybrid architectures, Survey
- Title(参考訳): 複雑なQAと言語モデルハイブリッドアーキテクチャ,サーベイ
- Authors: Xavier Daull, Patrice Bellot, Emmanuel Bruno, Vincent Martin,
Elisabeth Murisasco
- Abstract要約: この調査は、BIG、BLOOM、HELMなどの堅牢なコミュニティ編集研究論文から得られた知見を拡張した。
複雑な問題や問題を解決するために、LLM(Large Language Models)で使われる重要な要素を特定する。
本稿では、ドメイン適応、分解、効率的な多段階QA、長期QA、安全性と多感性データ保護、マルチモーダル検索、幻覚、QA説明可能性、真理性、時間次元など、複雑なQAに関連する課題について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper provides a survey of the state of the art of hybrid language
models architectures and strategies for "complex" question-answering (QA, CQA,
CPS). Very large language models are good at leveraging public data on standard
problems but once you want to tackle more specific complex questions or
problems you may need specific architecture, knowledge, skills, tasks, methods,
sensitive data, performance, human approval and versatile feedback... This
survey extends findings from the robust community edited research papers BIG,
BLOOM and HELM which open source, benchmark and analyze limits and challenges
of large language models in terms of tasks complexity and strict evaluation on
accuracy (e.g. fairness, robustness, toxicity, ...). It identifies the key
elements used with Large Language Models (LLM) to solve complex questions or
problems. Recent projects like ChatGPT and GALACTICA have allowed
non-specialists to grasp the great potential as well as the equally strong
limitations of language models in complex QA. Hybridizing these models with
different components could allow to overcome these different limits and go much
further. We discuss some challenges associated with complex QA, including
domain adaptation, decomposition and efficient multi-step QA, long form QA,
non-factoid QA, safety and multi-sensitivity data protection, multimodal
search, hallucinations, QA explainability and truthfulness, time dimension.
Therefore we review current solutions and promising strategies, using elements
such as hybrid LLM architectures, human-in-the-loop reinforcement learning,
prompting adaptation, neuro-symbolic and structured knowledge grounding,
program synthesis, and others. We analyze existing solutions and provide an
overview of the current research and trends in the area of complex QA.
- Abstract(参考訳): 本稿では,ハイブリッド言語モデルアーキテクチャの現状と"複雑な"質問応答(qa, cqa, cps)のための戦略について述べる。
非常に大きな言語モデルは、標準問題に関する公開データを活用するのが得意ですが、もっと複雑な質問や問題に取り組もうとすると、特定のアーキテクチャ、知識、スキル、タスク、メソッド、センシティブなデータ、パフォーマンス、人間の承認、多彩なフィードバックが必要です。
この調査は、タスクの複雑さと精度の厳密な評価(公正性、堅牢性、毒性など)の観点から、大きな言語モデルの限界と課題をオープンソース化し、ベンチマークし、分析する、堅牢なコミュニティ編集研究論文であるBIG、BLOOM、HELMの調査結果を拡張している。
複雑な問題や問題を解決するために、LLM(Large Language Models)で使われる重要な要素を特定する。
ChatGPTやGALACTICAといった最近のプロジェクトでは、非特殊主義者が複雑なQAにおける言語モデルの等しく強い制限だけでなく、大きな可能性を把握できるようになった。
これらのモデルを異なるコンポーネントでハイブリッド化することで、これらの異なる制限を克服し、さらに前進することができる。
本稿では、ドメイン適応、分解、効率的なマルチステップQA、ロングフォームQA、非ファクトイドQA、安全性とマルチセンシティブなデータ保護、マルチモーダル検索、幻覚、QA説明可能性、真理性、時間次元など、複雑なQAに関連する課題について論じる。
そこで我々は, ハイブリッドLLMアーキテクチャ, ヒューマン・イン・ザ・ループ強化学習, 適応の促進, ニューロシンボリックで構造化された知識基盤, プログラム合成などの要素を用いて, 現状のソリューションと有望な戦略を概観する。
我々は既存のソリューションを解析し、複雑なQA領域における現在の研究動向の概要を提供する。
関連論文リスト
- A Survey of Query Optimization in Large Language Models [10.255235456427037]
RAGは、動的に検索し、最新の関連情報を活用することによって、大規模言語モデルの限界を緩和する。
QOは重要な要素として現れ、RAGの検索段階の有効性を決定する上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-12-23T13:26:04Z) - Multi-step Inference over Unstructured Data [2.169874047093392]
医療、法律、金融などの分野における高い意思決定タスクは、精度、包括性、論理的一貫性のレベルを必要とする。
これらの問題に対処するための,ニューロシンボリックAIプラットフォームを開発した。
このプラットフォームは、知識抽出とアライメントのための微調整LDMと、堅牢なシンボリック推論エンジンを統合している。
論文 参考訳(メタデータ) (2024-06-26T00:00:45Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z) - Building Guardrails for Large Language Models [19.96292920696796]
LLMの入力や出力をフィルタリングするガードレールは、コアセーフガード技術として登場した。
このポジションペーパーでは、現在のオープンソースソリューション(Llama Guard, Nvidia NeMo, Guardrails AI)を詳しく調べ、より完全なソリューションを構築するための課題と道筋について論じる。
論文 参考訳(メタデータ) (2024-02-02T16:35:00Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - In-Context Ability Transfer for Question Decomposition in Complex QA [6.745884231594893]
複雑な問合せ課題を解決するために,icat(In-Context Ability Transfer)を提案する。
複雑な質問を単純な質問に分解したり、ステップバイステップの合理性をLSMに生成することができる。
本研究では, 数値推論, 構成複素QA, 不均一複素QAを含む多種多様な複雑なQAタスクについて大規模に実験を行った。
論文 参考訳(メタデータ) (2023-10-26T11:11:07Z) - Knowledge Crosswords: Geometric Knowledge Reasoning with Large Language Models [49.23348672822087]
構造化された事実制約に縛られた不完全な知識ネットワークからなるベンチマークである知識クロスワードを提案する。
幾何学的知識推論の新しい設定は、既存の原子/線形マルチホップQAを超える新しいLM能力を必要とする。
我々は,既存のLLMと知識クロスワードのアプローチを評価するために,広範囲な実験を行っている。
論文 参考訳(メタデータ) (2023-10-02T15:43:53Z) - Skills-in-Context Prompting: Unlocking Compositionality in Large Language Models [68.18370230899102]
大規模言語モデル(LLM)における構成一般化能力の活用法について検討する。
我々は,これらのスキルに基礎を置く基礎的スキルと構成的事例の両方を同じプロンプト・コンテキストで示すことが重要であることを発見した。
SKiC型データを用いた微調整LDMは、ゼロショット弱強一般化を導出できることを示す。
論文 参考訳(メタデータ) (2023-08-01T05:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。