論文の概要: A General Framework for Producing Interpretable Semantic Text Embeddings
- arxiv url: http://arxiv.org/abs/2410.03435v1
- Date: Fri, 4 Oct 2024 13:51:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 22:19:23.261328
- Title: A General Framework for Producing Interpretable Semantic Text Embeddings
- Title(参考訳): 解釈可能なセマンティックテキスト埋め込み作成のための汎用フレームワーク
- Authors: Yiqun Sun, Qiang Huang, Yixuan Tang, Anthony K. H. Tung, Jun Yu,
- Abstract要約: algoCQG-MBQAは、様々なタスクにまたがる解釈可能なセマンティックテキスト埋め込みを生成するためのフレームワークである。
我々は、広範囲な実験とアブレーション研究を通じて、algoCQG-MBQAの有効性と解釈可能性を検証する。
- 参考スコア(独自算出の注目度): 15.942250216505808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic text embedding is essential to many tasks in Natural Language Processing (NLP). While black-box models are capable of generating high-quality embeddings, their lack of interpretability limits their use in tasks that demand transparency. Recent approaches have improved interpretability by leveraging domain-expert-crafted or LLM-generated questions, but these methods rely heavily on expert input or well-prompt design, which restricts their generalizability and ability to generate discriminative questions across a wide range of tasks. To address these challenges, we introduce \algo{CQG-MBQA} (Contrastive Question Generation - Multi-task Binary Question Answering), a general framework for producing interpretable semantic text embeddings across diverse tasks. Our framework systematically generates highly discriminative, low cognitive load yes/no questions through the \algo{CQG} method and answers them efficiently with the \algo{MBQA} model, resulting in interpretable embeddings in a cost-effective manner. We validate the effectiveness and interpretability of \algo{CQG-MBQA} through extensive experiments and ablation studies, demonstrating that it delivers embedding quality comparable to many advanced black-box models while maintaining inherently interpretability. Additionally, \algo{CQG-MBQA} outperforms other interpretable text embedding methods across various downstream tasks.
- Abstract(参考訳): セマンティックテキストの埋め込みは自然言語処理(NLP)において多くのタスクに必須である。
ブラックボックスモデルは高品質な埋め込みを生成することができるが、解釈可能性の欠如は透明性を必要とするタスクでの使用を制限する。
近年のアプローチでは、ドメインエキスパートが作成した質問やLLMが生成した質問を活用することで、解釈可能性の向上が図られているが、これらの手法は専門家の入力や適切な設計に大きく依存しており、その一般化性と幅広いタスクにまたがる差別的な質問を生成する能力を制限する。
これらの課題に対処するために,さまざまなタスクにまたがる解釈可能なセマンティックテキストの埋め込みを生成するための一般的なフレームワークである,<algo{CQG-MBQA} (Contrastive Question Generation - Multi-task Binary Question Answering)を紹介した。
この枠組みは,高度に識別的かつ低認知的負荷のYes/no質問を \algo{CQG} 法を用いて体系的に生成し,それらをより効果的に解答することにより,コスト効率のよい埋め込みを実現する。
本研究では,多くの高度なブラックボックスモデルに匹敵する埋め込み品質を提供するとともに,本質的な解釈可能性を維持しつつ,より広範な実験とアブレーション研究を通じて, \algo{CQG-MBQA}の有効性と解釈可能性を検証する。
さらに、 \algo{CQG-MBQA} は、様々なダウンストリームタスクにまたがる他の解釈可能なテキスト埋め込みメソッドよりも優れている。
関連論文リスト
- Expanding Chatbot Knowledge in Customer Service: Context-Aware Similar Question Generation Using Large Language Models [16.429207101534924]
我々は,Large Language Models(LLM)に基づく類似質問生成(SQG)アプローチを提案する。
本手法は, セマンティックな多様性の点で, ベースライン手法をはるかに上回っている。
人間の評価は、顧客の意図を反映した回答を統合することが、生成された質問の数を増やすために重要であることを確認します。
論文 参考訳(メタデータ) (2024-10-16T10:48:14Z) - Knowledge Tagging System on Math Questions via LLMs with Flexible Demonstration Retriever [48.5585921817745]
大きな言語モデル(LLM)は知識タグ付けタスクを自動化するために使われる。
算数問題における知識タグ付けタスクに対するゼロショットと少数ショットの結果の強い性能を示す。
強化学習に基づくデモレトリバーの提案により,異なるサイズのLLMの潜在能力を活用できた。
論文 参考訳(メタデータ) (2024-06-19T23:30:01Z) - Crafting Interpretable Embeddings by Asking LLMs Questions [89.49960984640363]
大規模言語モデル(LLM)は、自然言語処理タスクの増大に対して、テキスト埋め込みを急速に改善した。
質問応答埋め込み (QA-Emb) を導入し, 各特徴がLLMに対して質問された質問に対する回答を表す。
我々はQA-Embを用いて、言語刺激に対するfMRIボクセル応答を予測するための解釈可能なモデルを柔軟に生成する。
論文 参考訳(メタデータ) (2024-05-26T22:30:29Z) - Multi-Level Explanations for Generative Language Models [45.82956216020136]
LIMEやSHAPのような摂動に基づく説明法はテキスト分類に一般的に適用される。
この研究は、生成言語モデルへの拡張に焦点を当てている。
我々は、異なる属性アルゴリズムでインスタンス化できるMExGenという一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T15:06:14Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - Adapting Pre-trained Generative Models for Extractive Question Answering [4.993041970406846]
本稿では、事前学習された生成モデルのパワーを用いて、抽出されたQAタスクに対処する新しいアプローチを提案する。
本稿では,既存の最先端モデルと比較して,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-11-06T09:01:02Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - Active Prompting with Chain-of-Thought for Large Language Models [26.5029080638055]
本稿では,大規模言語モデルを異なるタスクに適応させる新しい手法であるActive-Promptを提案する。
不確実性に基づくアクティブラーニングの関連問題からアイデアを借用することにより、不確実性を特徴づける指標をいくつか導入する。
実験により,提案手法の優位性を実証し,8つの複雑な推論タスクの最先端化を図った。
論文 参考訳(メタデータ) (2023-02-23T18:58:59Z) - Revisiting the Roles of "Text" in Text Games [102.22750109468652]
本稿では,強化学習におけるテキストの役割について検討する。
本稿では,関連するコンテキスト情報を近似状態ハッシュに抽出する簡単な手法を提案する。
このような軽量なプラグインは最先端のテキストエージェントとの競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-15T21:52:39Z) - Obtaining Better Static Word Embeddings Using Contextual Embedding
Models [53.86080627007695]
提案手法はCBOWをベースとした簡易な蒸留法である。
副作用として、我々の手法は文脈的および静的な埋め込みの公正な比較を可能にする。
論文 参考訳(メタデータ) (2021-06-08T12:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。