論文の概要: Chain-of-Action: Faithful and Multimodal Question Answering through Large Language Models
- arxiv url: http://arxiv.org/abs/2403.17359v2
- Date: Fri, 21 Feb 2025 09:32:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 17:07:27.756482
- Title: Chain-of-Action: Faithful and Multimodal Question Answering through Large Language Models
- Title(参考訳): Chain-of-Action: 大規模言語モデルによる忠実でマルチモーダルな質問
- Authors: Zhenyu Pan, Haozheng Luo, Manling Li, Han Liu,
- Abstract要約: マルチモーダルおよび検索強化質問応答(QA)のためのチェーン・オブ・アクション・フレームワークを提案する。
文献と比較すると、CoAは現在のQAアプリケーションにおける2つの大きな課題を克服している: (i) リアルタイムやドメインの事実と矛盾しない不誠実な幻覚、(ii) 構成情報よりも弱い推論性能。
- 参考スコア(独自算出の注目度): 17.60243337898751
- License:
- Abstract: We present a Chain-of-Action (CoA) framework for multimodal and retrieval-augmented Question-Answering (QA). Compared to the literature, CoA overcomes two major challenges of current QA applications: (i) unfaithful hallucination that is inconsistent with real-time or domain facts and (ii) weak reasoning performance over compositional information. Our key contribution is a novel reasoning-retrieval mechanism that decomposes a complex question into a reasoning chain via systematic prompting and pre-designed actions. Methodologically, we propose three types of domain-adaptable `Plug-and-Play' actions for retrieving real-time information from heterogeneous sources. We also propose a multi-reference faith score (MRFS) to verify and resolve conflicts in the answers. Empirically, we exploit both public benchmarks and a Web3 case study to demonstrate the capability of CoA over other methods.
- Abstract(参考訳): 本稿では,マルチモーダルおよび検索強化質問応答(QA)のためのChain-of-Action(CoA)フレームワークを提案する。
文献と比較すると、CoAは現在のQAアプリケーションにおける2つの大きな課題を克服している。
一 リアルタイム又はドメイン事実に反する不信の幻覚
(二)構成情報に対する推論性能の弱いこと。
私たちの重要な貢献は、複雑な質問を体系的なプロンプトと事前設計されたアクションを通じて推論チェーンに分解する、新しい推論-検索メカニズムである。
提案手法は,異種情報源からリアルタイム情報を取得するための3種類のドメイン適応型 ‘Plug-and-Play' アクションを提案する。
また,Multi-Reference faith score (MRFS) を提案する。
実証的には、公開ベンチマークとWeb3ケーススタディの両方を利用して、他のメソッドよりもCoAの能力を実証します。
関連論文リスト
- Layered Chain-of-Thought Prompting for Multi-Agent LLM Systems: A Comprehensive Approach to Explainable Large Language Models [0.0]
提案するLayered Chain-of-Thought (Layered-CoT) Promptingは,推論プロセスを複数の層に体系的に分割する新しいフレームワークである。
医療トリアージ、財務リスク評価、アジャイルエンジニアリングの3つのシナリオを紹介し、透明性、正確性、ユーザエンゲージメントの観点から、Layered-CoTがバニラCoTをどのように上回っているかを示します。
論文 参考訳(メタデータ) (2025-01-29T13:21:09Z) - Conv-CoA: Improving Open-domain Question Answering in Large Language Models via Conversational Chain-of-Action [17.60243337898751]
オープンドメイン会話質問回答(OCQA)のための会話連鎖(Conv-CoA)フレームワークを提案する。
文献と比較して、Conv-CoAは、(i)リアルタイムやドメイン事実と矛盾しない不誠実な幻覚、(ii)会話シナリオにおける弱い推論性能、(iii)会話情報検索における不満足なパフォーマンスの3つの主要な課題に対処する。
論文 参考訳(メタデータ) (2024-05-28T04:46:52Z) - ChainLM: Empowering Large Language Models with Improved Chain-of-Thought Prompting [124.69672273754144]
CoT(Chain-of-Thought)のプロンプトにより,大規模言語モデル(LLM)の推論能力が向上する
既存のCoTアプローチは通常、単純な推論タスクに重点を置いており、結果として低品質で一貫性のないCoTプロンプトをもたらす。
優れたCoTプロンプトの自動生成のための新しいフレームワークであるCoTGeniusを紹介する。
論文 参考訳(メタデータ) (2024-03-21T11:34:26Z) - Chain-of-Discussion: A Multi-Model Framework for Complex Evidence-Based Question Answering [55.295699268654545]
本稿では,オープンソースのLarge Language Model間の相乗効果を利用する新しいChain-ofDiscussionフレームワークを提案する。
実験の結果,複数のLSM間の議論は回答の質を高める上で重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2024-02-26T05:31:34Z) - Progressive Evidence Refinement for Open-domain Multimodal Retrieval
Question Answering [20.59485758381809]
現在のマルチモーダル検索質問答えモデルは2つの大きな課題に直面している。
モデルへの入力として圧縮されたエビデンスの特徴を利用すると、エビデンス内の詳細な情報が失われる。
本稿では,これらの問題を緩和するための証拠検索と質問応答のための2段階の枠組みを提案する。
論文 参考訳(メタデータ) (2023-10-15T01:18:39Z) - How Many Answers Should I Give? An Empirical Study of Multi-Answer
Reading Comprehension [64.76737510530184]
我々は、一般的に見られるマルチアンサーMRCインスタンスを分類するために分類を設計する。
我々は、現在のマルチ・アンサー・MCCモデルのパラダイムが、異なるタイプのマルチ・アンサー・インスタンスをどのように扱うかを分析する。
論文 参考訳(メタデータ) (2023-06-01T08:22:21Z) - Answering Questions by Meta-Reasoning over Multiple Chains of Thought [53.55653437903948]
MCR(Multi-Chain Reasoning)は,大規模言語モデルに対して,複数の思考連鎖に対するメタ推論を促す手法である。
MCRは、異なる推論連鎖を調べ、それら間で情報を混合し、説明を生成し、答えを予測する際に最も関係のある事実を選択する。
論文 参考訳(メタデータ) (2023-04-25T17:27:37Z) - Multimodal Chain-of-Thought Reasoning in Language Models [94.70184390935661]
言語(テキスト)と視覚(画像)のモダリティを2段階のフレームワークに組み込んだマルチモーダルCoTを提案する。
その結果,ScienceQA と A-OKVQA のベンチマークは,提案手法の有効性を示した。
論文 参考訳(メタデータ) (2023-02-02T07:51:19Z) - Multi-hop Inference for Question-driven Summarization [39.08269647808958]
本稿では,新しい質問駆動抽象要約手法であるMulti-hop Selective Generator (MSG)を提案する。
MSGは、マルチホップ推論を質問駆動要約に取り入れ、生成した要約の正当化を提供する。
実験結果から,提案手法は2つの非ファクトイドQAデータセット上で常に最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2020-10-08T02:36:39Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z) - Unsupervised Alignment-based Iterative Evidence Retrieval for Multi-hop
Question Answering [40.58976291178477]
本稿では,単純で高速かつ教師なしの反復的証拠検索手法を提案する。
その単純さにもかかわらず,提案手法はエビデンス選択タスクにおいて,従来の手法よりも優れていた。
これらのエビデンス文をRoBERTaの回答分類コンポーネントに入力すると、最先端のQA性能が得られる。
論文 参考訳(メタデータ) (2020-05-04T00:19:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。