論文の概要: Empowering Language Models with Active Inquiry for Deeper Understanding
- arxiv url: http://arxiv.org/abs/2402.03719v1
- Date: Tue, 6 Feb 2024 05:24:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 16:46:51.702102
- Title: Empowering Language Models with Active Inquiry for Deeper Understanding
- Title(参考訳): より深い理解のための能動的問合せを用いた言語モデルの構築
- Authors: Jing-Cheng Pang, Heng-Bo Fan, Pengyuan Wang, Jia-Hao Xiao, Nan Tang,
Si-Hang Yang, Chengxing Jia, Sheng-Jun Huang, Yang Yu
- Abstract要約: 対話型エンゲージメントを備えた大規模言語モデルを実現するために設計されたLaMAI(Language Model with Active Inquiry)を紹介する。
LaMAIは、アクティブな学習技術を使用して、最も有意義な質問を提起し、動的双方向対話を育む。
様々な複雑なデータセットにわたる実証研究は、LaMAIの有効性を実証している。
- 参考スコア(独自算出の注目度): 31.11672018840381
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rise of large language models (LLMs) has revolutionized the way that we
interact with artificial intelligence systems through natural language.
However, LLMs often misinterpret user queries because of their uncertain
intention, leading to less helpful responses. In natural human interactions,
clarification is sought through targeted questioning to uncover obscure
information. Thus, in this paper, we introduce LaMAI (Language Model with
Active Inquiry), designed to endow LLMs with this same level of interactive
engagement. LaMAI leverages active learning techniques to raise the most
informative questions, fostering a dynamic bidirectional dialogue. This
approach not only narrows the contextual gap but also refines the output of the
LLMs, aligning it more closely with user expectations. Our empirical studies,
across a variety of complex datasets where LLMs have limited conversational
context, demonstrate the effectiveness of LaMAI. The method improves answer
accuracy from 31.9% to 50.9%, outperforming other leading question-answering
frameworks. Moreover, in scenarios involving human participants, LaMAI
consistently generates responses that are superior or comparable to baseline
methods in more than 82% of the cases. The applicability of LaMAI is further
evidenced by its successful integration with various LLMs, highlighting its
potential for the future of interactive language models.
- Abstract(参考訳): 大規模言語モデル(LLM)の台頭は、自然言語を通じて人工知能システムと対話する方法に革命をもたらした。
しかし、LSMは不確実な意図のためにユーザクエリを誤解釈することが多く、あまり役に立たない。
自然の人間との相互作用では、不明な情報を明らかにするために標的とした質問を通じて明確化が求められる。
そこで本稿では,同じレベルの対話性を持つllmを支援すべく設計されたlamai(language model with active inquiry)を提案する。
LaMAIはアクティブな学習技術を活用して、最も有益な質問を提起し、動的双方向対話を促進する。
このアプローチはコンテキストギャップを狭めるだけでなく、LCMの出力を洗練し、ユーザの期待とより密接に一致させる。
LLMが会話の文脈に制限がある様々な複雑なデータセットを対象とした実証研究は、LaMAIの有効性を実証している。
解答精度は31.9%から50.9%に向上し、他の主要な問合せフレームワークを上回っている。
さらに、人間の参加者を含むシナリオでは、lamaiは一貫して82%以上のケースにおいて、ベースラインメソッドに匹敵する応答を生成する。
LaMAIの適用性はさらに、様々なLLMとの統合の成功によって証明されており、対話型言語モデルの将来の可能性を強調している。
関連論文リスト
- NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - Knowledgeable Agents by Offline Reinforcement Learning from Large Language Model Rollouts [10.929547354171723]
本稿では,言語モデルロールアウト(KALM)の知識エージェントを紹介する。
大規模言語モデル(LLM)から、オフラインの強化学習手法によってエージェントが容易に学習できる想像上のロールアウトの形で知識を抽出する。
未確認の目標を持つタスクの実行において46%の成功率を達成し、ベースラインメソッドによって達成された26%の成功率を大幅に上回る。
論文 参考訳(メタデータ) (2024-04-14T13:19:40Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - DialogueLLM: Context and Emotion Knowledge-Tuned Large Language Models
for Emotion Recognition in Conversations [28.15933355881604]
大規模言語モデル(LLM)は、多くの下流自然言語処理(NLP)タスクに対して異常な有効性を示している。
LLaMAモデルの微調整により得られた文脈と感情の知識をチューニングしたLLMであるダイアログLLMを提案する。
会話データセットにおける3つの感情認識のベンチマークについて,提案手法の総合評価を行った。
論文 参考訳(メタデータ) (2023-10-17T16:15:34Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z) - Sight Beyond Text: Multi-Modal Training Enhances LLMs in Truthfulness
and Ethics [32.123919380959485]
MLLM(Multi-modal large language model)は、大規模言語モデル(LLM)に基づいて訓練される。
マルチモーダルなタスクでは優れているが、MLLMの純粋なNLP能力はしばしば過小評価され、テストされていない。
LLMをMLLMに移行するための一般的な戦略である視覚的インストラクションチューニングは、予期せぬ、興味深いことに、改善された真理性と倫理的整合性の両方を達成するのに役立ちます。
論文 参考訳(メタデータ) (2023-09-13T17:57:21Z) - Spoken Language Intelligence of Large Language Models for Language
Learning [3.5924382852350902]
教育分野における大規模言語モデル(LLM)の有効性を評価することに注力する。
上記のシナリオにおけるLLMの有効性を評価するために,新しい複数選択質問データセットを提案する。
また,ゼロショット法や少数ショット法など,様々なプロンプト技術の影響についても検討する。
異なる大きさのモデルは、音韻学、音韻学、第二言語習得の概念をよく理解しているが、実世界の問題に対する推論には限界がある。
論文 参考訳(メタデータ) (2023-08-28T12:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。