論文の概要: A RAG-based Question Answering System Proposal for Understanding Islam:
MufassirQAS LLM
- arxiv url: http://arxiv.org/abs/2401.15378v4
- Date: Thu, 1 Feb 2024 20:28:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 12:00:12.883187
- Title: A RAG-based Question Answering System Proposal for Understanding Islam:
MufassirQAS LLM
- Title(参考訳): RAGに基づくイスラム教理解のための質問応答システムの提案:MufassirQAS LLM
- Authors: Ahmet Yusuf Alan, Enis Karaarslan, \"Omer Aydin
- Abstract要約: 本研究は,LLMの精度と透明性を高めるために,ベクトルデータベースに基づくRetrieval Augmented Generation (RAG)アプローチを用いる。
トルコの文脈を含むいくつかのオープンアクセスブックからなるデータベースを作成しました。
MufassirQAS と ChatGPT もセンシティブな質問でテストされている。
- 参考スコア(独自算出の注目度): 0.34530027457862006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Challenges exist in learning and understanding religions, such as the
complexity and depth of religious doctrines and teachings. Chatbots as
question-answering systems can help in solving these challenges. LLM chatbots
use NLP techniques to establish connections between topics and accurately
respond to complex questions. These capabilities make it perfect for
enlightenment on religion as a question-answering chatbot. However, LLMs also
tend to generate false information, known as hallucination. Also, the chatbots'
responses can include content that insults personal religious beliefs,
interfaith conflicts, and controversial or sensitive topics. It must avoid such
cases without promoting hate speech or offending certain groups of people or
their beliefs. This study uses a vector database-based Retrieval Augmented
Generation (RAG) approach to enhance the accuracy and transparency of LLMs. Our
question-answering system is called "MufassirQAS". We created a database
consisting of several open-access books that include Turkish context. These
books contain Turkish translations and interpretations of Islam. This database
is utilized to answer religion-related questions and ensure our answers are
trustworthy. The relevant part of the dataset, which LLM also uses, is
presented along with the answer. We have put careful effort into creating
system prompts that give instructions to prevent harmful, offensive, or
disrespectful responses to respect people's values and provide reliable
results. The system answers and shares additional information, such as the page
number from the respective book and the articles referenced for obtaining the
information. MufassirQAS and ChatGPT are also tested with sensitive questions.
We got better performance with our system. Study and enhancements are still in
progress. Results and future works are given.
- Abstract(参考訳): 教義や教えの複雑さや深さなど、宗教の学習と理解に課題が存在する。
質問応答システムとしてのチャットボットは、これらの課題を解決するのに役立つ。
LLMチャットボットはNLP技術を用いてトピック間の接続を確立し、複雑な質問に正確に応答する。
これらの能力は、質問に答えるチャットボットとしての宗教の啓蒙に最適である。
しかし、LLMは幻覚として知られる偽情報を生成する傾向がある。
また、チャットボットの反応には、個人的な宗教的信念を侮辱する内容、相互信仰の対立、論争やセンシティブなトピックが含まれる。
ヘイトスピーチを宣伝したり、特定のグループやその信念を非難したりすることなく、そのような事件を避ける必要がある。
本研究は,LLMの精度と透明性を高めるために,ベクトルデータベースに基づくRetrieval Augmented Generation(RAG)アプローチを用いる。
質問応答システムは「MufassirQAS」と呼ばれる。
トルコのコンテキストを含むいくつかのオープンアクセス書籍からなるデータベースを作成しました。
これらの本はトルコ語訳とイスラム教の解釈を含んでいる。
このデータベースは宗教に関する質問に答え、我々の答えが信頼できることを保証するために利用されます。
LLMも使用しているデータセットの関連部分は、回答とともに表示される。
我々は、人々の価値観を尊重し、信頼できる結果をもたらす有害、攻撃的、不敬な反応を防ぐための指示を与えるシステムプロンプトの作成に注意を払ってきた。
システムは、各書籍のページ番号や情報を取得するために参照された記事などの追加情報に回答し、共有する。
MufassirQAS と ChatGPT もセンシティブな質問でテストされている。
私たちはシステムの性能が良くなった。
研究と強化はまだ進行中である。
結果と今後の成果が示される。
関連論文リスト
- Are LLMs Aware that Some Questions are not Open-ended? [58.93124686141781]
大規模言語モデルでは、いくつかの質問が限定的な回答を持ち、より決定論的に答える必要があることを認識しているかどうかを調査する。
LLMにおける疑問認識の欠如は,(1)非オープンな質問に答えるにはカジュアルすぎる,(2)オープンな質問に答えるには退屈すぎる,という2つの現象をもたらす。
論文 参考訳(メタデータ) (2024-10-01T06:07:00Z) - What Evidence Do Language Models Find Convincing? [94.90663008214918]
議論の的になっているクエリと、さまざまな事実を含む実世界の証拠文書を組み合わせたデータセットを構築します。
このデータセットを用いて、感度と反ファクト分析を行い、どのテキスト特徴がLLM予測に最も影響するかを探索する。
全体として、現在のモデルは、クエリに対するWebサイトの関連性に大きく依存している一方で、人間が重要と考えるスタイル的特徴をほとんど無視している。
論文 参考訳(メタデータ) (2024-02-19T02:15:34Z) - Rephrase and Respond: Let Large Language Models Ask Better Questions for Themselves [57.974103113675795]
本稿では,Rephrase and Respond'(RaR)という手法を提案する。
RaRは、パフォーマンスを改善するためのシンプルだが効果的なプロンプト方法として機能する。
また,RaRは理論的にも経験的にも,一般的なChain-of-Thought(CoT)法と相補的であることを示す。
論文 参考訳(メタデータ) (2023-11-07T18:43:34Z) - Learn to Refuse: Making Large Language Models More Controllable and Reliable through Knowledge Scope Limitation and Refusal Mechanism [0.0]
大規模言語モデル(LLM)は印象的な言語理解と生成能力を示している。
これらのモデルは欠陥がなく、しばしばエラーや誤報を含む応答を生成する。
本稿では,LLMに対して,誤りを避けるために,難解な質問への回答を拒否するように指示する拒絶機構を提案する。
論文 参考訳(メタデータ) (2023-11-02T07:20:49Z) - DELPHI: Data for Evaluating LLMs' Performance in Handling Controversial
Issues [3.497021928281132]
論争は私たちの世俗主義の反映であり、あらゆる論点にとって重要な側面である。
対話型システムとしての大規模言語モデル(LLM)の台頭は、これらのシステムに対する様々な質問に対する回答に対する大衆の信頼を高めている。
本稿では,Quora Question Pairsデータセットを拡張した,議論の的となっている質問データセットの新規構築を提案する。
論文 参考訳(メタデータ) (2023-10-27T13:23:02Z) - QASiNa: Religious Domain Question Answering using Sirah Nabawiyah [0.0]
イスラム教では、情報ソースを厳格に規制し、そのソースに対して解釈や触覚を与えることができる。
LLMが独自の解釈に基づいて回答を生成するアプローチは、タフザーの概念と似ている。
インドネシア語でSirah Nabawiyah文学から収集された新しいデータセットであるQASiNaデータセットを提案する。
論文 参考訳(メタデータ) (2023-10-12T07:52:19Z) - Won't Get Fooled Again: Answering Questions with False Premises [79.8761549830075]
プレトレーニング言語モデル(PLM)は、様々な分野で前例のない可能性を示している。
PLMは「太陽は何人の目を持っているのか?」といったトリッキーな質問によって容易に騙される傾向がある。
PLMはすでにそのような疑問に答えるために必要な知識を持っている。
論文 参考訳(メタデータ) (2023-07-05T16:09:21Z) - Question Answering as Programming for Solving Time-Sensitive Questions [84.07553016489769]
質問応答は、世界に関する知識の獲得に関わるため、人間の日常生活において重要な役割を担っている。
近年,Large Language Models (LLMs) は疑問に答える上で顕著な知性を示している。
これはLLMが表面レベルのテキストセマンティクスに基づいて厳密な推論を行うことができないためである。
我々は、$textbfQ$uestion $textbfA$rogrogeringタスクを再設定する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:35:16Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Discourse Comprehension: A Question Answering Framework to Represent
Sentence Connections [35.005593397252746]
談話理解のためのモデルの構築と評価における重要な課題は、注釈付きデータの欠如である。
本稿では,ニュース文書の理解を目的としたスケーラブルなデータ収集を実現する新しいパラダイムを提案する。
得られたコーパスDCQAは、607の英語文書からなる22,430の質問応答ペアで構成されている。
論文 参考訳(メタデータ) (2021-11-01T04:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。