論文の概要: Building Domain-Specific LLMs Faithful To The Islamic Worldview: Mirage
or Technical Possibility?
- arxiv url: http://arxiv.org/abs/2312.06652v1
- Date: Mon, 11 Dec 2023 18:59:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 14:07:55.323098
- Title: Building Domain-Specific LLMs Faithful To The Islamic Worldview: Mirage
or Technical Possibility?
- Title(参考訳): イスラム世界観に忠実なドメイン特化LDMの構築 - ミラージュか技術的可能性か?
- Authors: Shabaz Patel, Hassan Kane, Rayhan Patel
- Abstract要約: 大規模言語モデル(LLM)は、多くの自然言語理解ユースケースで顕著なパフォーマンスを示している。
イスラム教とその表現の文脈において、その信仰と教えの正確かつ事実的な表現は、クルランとスンナに根ざしている。
本研究は、イスラム世界観に忠実なドメイン固有のLLMを構築することの課題に焦点を当てる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable performance across
numerous natural language understanding use cases. However, this impressive
performance comes with inherent limitations, such as the tendency to perpetuate
stereotypical biases or fabricate non-existent facts. In the context of Islam
and its representation, accurate and factual representation of its beliefs and
teachings rooted in the Quran and Sunnah is key. This work focuses on the
challenge of building domain-specific LLMs faithful to the Islamic worldview
and proposes ways to build and evaluate such systems. Firstly, we define this
open-ended goal as a technical problem and propose various solutions.
Subsequently, we critically examine known challenges inherent to each approach
and highlight evaluation methodologies that can be used to assess such systems.
This work highlights the need for high-quality datasets, evaluations, and
interdisciplinary work blending machine learning with Islamic scholarship.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くの自然言語理解のユースケースで顕著な性能を示している。
しかし、この印象的なパフォーマンスには、ステレオタイプバイアスを永続する傾向や、存在しない事実を作る傾向など、固有の制限が伴う。
イスラム教とその表現の文脈では、クルアーンとスンナに根ざした信仰と教えの正確で事実的な表現が鍵となる。
本研究は、イスラム世界観に忠実なドメイン固有のLLMを構築することの課題に焦点を当て、そのようなシステムを構築し評価する方法を提案する。
まず、このオープンエンド目標を技術的問題として定義し、様々な解決策を提案する。
その後,各アプローチに固有の既知の課題を批判的に検討し,システム評価に使用できる評価方法論を強調する。
この研究は、機械学習とイスラムの奨学金を組み合わせた高品質なデータセット、評価、学際的な仕事の必要性を強調している。
関連論文リスト
- Challenges in Guardrailing Large Language Models for Science [0.21990652930491852]
科学領域に大規模言語モデル(LLM)を配置するためのガイドラインを提供する。
時間感受性、知識の文脈化、紛争解決、知的財産権の懸念など、特定の課題を特定します。
これらのガードレールの側面には、信頼性、倫理と偏見、安全性、法的側面が含まれる。
論文 参考訳(メタデータ) (2024-11-12T20:57:12Z) - FaithEval: Can Your Language Model Stay Faithful to Context, Even If "The Moon is Made of Marshmallows" [74.7488607599921]
FaithEvalは、コンテキストシナリオにおける大規模言語モデル(LLM)の忠実度を評価するためのベンチマークである。
FaithEvalは4.9Kの高品質な問題で構成され、厳格な4段階のコンテキスト構築と検証フレームワークを通じて検証されている。
論文 参考訳(メタデータ) (2024-09-30T06:27:53Z) - A Benchmark Dataset with Larger Context for Non-Factoid Question Answering over Islamic Text [0.16385815610837165]
本稿では,Quranic Tafsir と Ahadith の領域内で質問応答を目的とした包括的データセットについて紹介する。
このデータセットは、73,000以上の質問応答ペアからなる堅牢なコレクションで構成されており、この特殊なドメインで報告されている最大のデータセットである。
本稿では,データセットのコントリビューションを強調しながら,その後の人的評価から,既存の自動評価手法の限界に関する批判的な洞察が得られた。
論文 参考訳(メタデータ) (2024-09-15T19:50:00Z) - Towards Few-Shot Learning in the Open World: A Review and Beyond [52.41344813375177]
少ないショット学習は、人間の知性を模倣し、大きな一般化と伝達性を実現することを目的としている。
本稿では,FSLをオープンワールド環境に適用するための最近の進歩について概説する。
既存の手法は,3つの異なるタイプのオープンワールド・マイクロショット・ラーニングに分類する。
論文 参考訳(メタデータ) (2024-08-19T06:23:21Z) - Meta Reasoning for Large Language Models [58.87183757029041]
大規模言語モデル(LLM)の新規かつ効率的なシステムプロセッシング手法であるメタ推論プロンプト(MRP)を導入する。
MRPは、各タスクの特定の要求に基づいて異なる推論メソッドを動的に選択し、適用するようLLMに誘導する。
総合的なベンチマークによりMPPの有効性を評価する。
論文 参考訳(メタデータ) (2024-06-17T16:14:11Z) - Standards for Belief Representations in LLMs [0.0]
我々は、信念のように数えられるように記入する表現の妥当性を論じる。
理論的考察と実践的制約のバランスをとるための4つの基準を確立する。
提案する基準は,精度,コヒーレンス,均一性,使用性である。
論文 参考訳(メタデータ) (2024-05-31T17:21:52Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - AesBench: An Expert Benchmark for Multimodal Large Language Models on
Image Aesthetics Perception [64.25808552299905]
AesBenchはMLLMの審美的知覚能力の総合評価を目的とした専門家ベンチマークである。
本稿では,プロの審美専門家が提供した多彩な画像内容と高品質なアノテーションを特徴とするEAPD(Expert-labeled Aesthetics Perception Database)を構築した。
本稿では,知覚(AesP),共感(AesE),評価(AesA),解釈(AesI)の4つの視点からMLLMの審美的知覚能力を測定するための統合的基準を提案する。
論文 参考訳(メタデータ) (2024-01-16T10:58:07Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。