論文の概要: Cofca: A Step-Wise Counterfactual Multi-hop QA benchmark
- arxiv url: http://arxiv.org/abs/2402.11924v5
- Date: Tue, 15 Oct 2024 05:47:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 13:58:49.312341
- Title: Cofca: A Step-Wise Counterfactual Multi-hop QA benchmark
- Title(参考訳): Cofca: ステップワイズ対マルチホップQAベンチマーク
- Authors: Jian Wu, Linyi Yang, Zhen Wang, Manabu Okumura, Yue Zhang,
- Abstract要約: 実データと反実データからなる新しい評価ベンチマークであるCofCA(Step-wise Counterfactual benchmark)を導入する。
実験の結果,ウィキペディアをベースとした事実データと反事実データの間には,既存のベンチマークにおけるデータ汚染問題を推定し,大きな性能差があることが判明した。
- 参考スコア(独自算出の注目度): 39.64489055580211
- License:
- Abstract: While Large Language Models (LLMs) excel in question-answering (QA) tasks, their real reasoning abilities on multiple evidence retrieval and integration on Multi-hop QA tasks remain less explored. Firstly, LLMs sometimes generate answers that rely on internal memory rather than retrieving evidence and reasoning in the given context, which brings concerns about the evaluation quality of real reasoning abilities. Although previous counterfactual QA benchmarks can separate the internal memory of LLMs, they focus solely on final QA performance, which is insufficient for reporting LLMs' real reasoning abilities. Because LLMs are expected to engage in intricate reasoning processes that involve evidence retrieval and answering a series of sub-questions from given passages. Moreover, current factual Multi-hop QA (MHQA) benchmarks are annotated on open-source corpora such as Wikipedia, although useful for multi-step reasoning evaluation, they show limitations due to the potential data contamination in LLMs' pre-training stage. To address these issues, we introduce a Step-wise Counterfactual benchmark (CofCA), a novel evaluation benchmark consisting of factual data and counterfactual data that reveals LLMs' real reasoning abilities on multi-step reasoning and reasoning chain evaluation. Our experimental results reveal a significant performance gap of several LLMs between Wikipedia-based factual data and counterfactual data, deeming data contamination issues in existing benchmarks. Moreover, we observe that LLMs usually bypass the correct reasoning chain, showing an inflated multi-step reasoning performance. We believe that our CofCA benchmark will enhance and facilitate the evaluations of trustworthy LLMs.
- Abstract(参考訳): 大言語モデル(LLM)は質問応答タスク(QA)に優れるが、複数のエビデンス検索とマルチホップQAタスクの統合に関する真の推論能力はいまだ検討されていない。
第一に、LCMは、与えられた文脈における証拠や推論を回収するのではなく、内部記憶に依存した回答を生成することがあるため、真の推論能力の評価品質に関する懸念が生じる。
従来のQAベンチマークではLCMの内部メモリを分離することができたが、最終的なQA性能にのみ焦点が当てられ、LCMの真の推論能力の報告には不十分であった。
LLMは、証拠を検索し、与えられた通路からの一連のサブクエストに答える複雑な推論プロセスに従事することが期待されている。
さらに、現在のMHQA(Multi-hop QA)ベンチマークは、ウィキペディアのようなオープンソースのコーパスに注釈付けされているが、多段階の推論評価には有用であるが、LLMの事前学習段階における潜在的なデータ汚染による制限が示される。
これらの問題に対処するために,多段階推論および推論連鎖評価におけるLLMの真の推論能力を明らかにする実データと反実データからなる新しい評価ベンチマークである,ステップワイズ・カウンセリング・ベンチマーク(CofCA)を導入する。
実験結果から,ウィキペディアをベースとした実データと反実データの間には,いくつかのLCMが有意な性能差を示し,既存のベンチマークにおけるデータ汚染問題を推定した。
さらに,LLMは正しい推論連鎖をバイパスし,インフレーションされた多段階推論性能を示す。
我々は,我々のCofCAベンチマークが信頼性の高いLCMの評価を強化し,促進すると考えている。
関連論文リスト
- Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - TruthEval: A Dataset to Evaluate LLM Truthfulness and Reliability [0.0]
我々は、TruthEvalと呼ばれるベンチマークのためのセンシティブなトピックに関する難解なステートメントのキュレートしたコレクションを提示する。
これらのステートメントは手作業でキュレートされ、既知の真理値を含んでいる。
このデータセットを用いていくつかの初期分析を行い、単純な質問を理解できないという単純なタスクでLLMが失敗する事例をいくつか見出した。
論文 参考訳(メタデータ) (2024-06-04T00:01:35Z) - Direct Evaluation of Chain-of-Thought in Multi-hop Reasoning with Knowledge Graphs [52.42505579545893]
大規模言語モデル(LLM)は、回答とともにチェーン・オブ・シントの説明を生成するよう促されたとき、強い推論能力を示す。
本稿では,LLMの推論知識と生成したCoTの精度を評価するために,新しい識別的・生成的CoT評価パラダイムを提案する。
論文 参考訳(メタデータ) (2024-02-17T05:22:56Z) - Beyond the Answers: Reviewing the Rationality of Multiple Choice Question Answering for the Evaluation of Large Language Models [29.202758753639078]
本研究では,大規模言語モデル(LLM)の評価手法として,MCQA(Multiple Choice Question Answering)の限界について検討する。
本稿では,モデルの性能をより正確に反映できるMCQ(Multiple-Choice Questions, MCQA+)のデータセット拡張手法を提案する。
論文 参考訳(メタデータ) (2024-02-02T12:07:00Z) - InfiMM-Eval: Complex Open-Ended Reasoning Evaluation For Multi-Modal
Large Language Models [50.03163753638256]
MLLM(Multi-modal Large Language Models)は人工知能の分野で注目されている。
本ベンチマークは, 帰納的, 帰納的, 類推的推論の3つの主要な推論カテゴリから構成される。
我々は,この厳密に開発されたオープンエンド多段階精巧な推論ベンチマークを用いて,代表MLLMの選択を評価する。
論文 参考訳(メタデータ) (2023-11-20T07:06:31Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。