論文の概要: Building Domain-Specific LLMs Faithful To The Islamic Worldview: Mirage
or Technical Possibility?
- arxiv url: http://arxiv.org/abs/2312.06652v1
- Date: Mon, 11 Dec 2023 18:59:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 14:07:55.323098
- Title: Building Domain-Specific LLMs Faithful To The Islamic Worldview: Mirage
or Technical Possibility?
- Title(参考訳): イスラム世界観に忠実なドメイン特化LDMの構築 - ミラージュか技術的可能性か?
- Authors: Shabaz Patel, Hassan Kane, Rayhan Patel
- Abstract要約: 大規模言語モデル(LLM)は、多くの自然言語理解ユースケースで顕著なパフォーマンスを示している。
イスラム教とその表現の文脈において、その信仰と教えの正確かつ事実的な表現は、クルランとスンナに根ざしている。
本研究は、イスラム世界観に忠実なドメイン固有のLLMを構築することの課題に焦点を当てる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable performance across
numerous natural language understanding use cases. However, this impressive
performance comes with inherent limitations, such as the tendency to perpetuate
stereotypical biases or fabricate non-existent facts. In the context of Islam
and its representation, accurate and factual representation of its beliefs and
teachings rooted in the Quran and Sunnah is key. This work focuses on the
challenge of building domain-specific LLMs faithful to the Islamic worldview
and proposes ways to build and evaluate such systems. Firstly, we define this
open-ended goal as a technical problem and propose various solutions.
Subsequently, we critically examine known challenges inherent to each approach
and highlight evaluation methodologies that can be used to assess such systems.
This work highlights the need for high-quality datasets, evaluations, and
interdisciplinary work blending machine learning with Islamic scholarship.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くの自然言語理解のユースケースで顕著な性能を示している。
しかし、この印象的なパフォーマンスには、ステレオタイプバイアスを永続する傾向や、存在しない事実を作る傾向など、固有の制限が伴う。
イスラム教とその表現の文脈では、クルアーンとスンナに根ざした信仰と教えの正確で事実的な表現が鍵となる。
本研究は、イスラム世界観に忠実なドメイン固有のLLMを構築することの課題に焦点を当て、そのようなシステムを構築し評価する方法を提案する。
まず、このオープンエンド目標を技術的問題として定義し、様々な解決策を提案する。
その後,各アプローチに固有の既知の課題を批判的に検討し,システム評価に使用できる評価方法論を強調する。
この研究は、機械学習とイスラムの奨学金を組み合わせた高品質なデータセット、評価、学際的な仕事の必要性を強調している。
関連論文リスト
- Khayyam Challenge (PersianMMLU): Is Your LLM Truly Wise to The Persian Language? [3.4812080203308984]
ハヤム・チャレンジ(Khayyam Challenge、ペルシア語MMLU)は、ペルシアの試験から抽出された38の多様なタスクから得られた20,192の4つの質問のコレクションである。
Khayyam Challengeの主な目的は、ペルシア語をサポートするLLMの厳格な評価を促進することである。
論文 参考訳(メタデータ) (2024-04-09T22:38:13Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by
Dissociating Language and Cognition [57.747888532651]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - FairBelief - Assessing Harmful Beliefs in Language Models [25.032952666134157]
言語モデル(LM)は、マイノリティを損なう可能性のある望ましくない偏見を継承することが示されている。
本論文は,信仰を捉え,評価するための分析的アプローチであるFairBeliefを提案する。
論文 参考訳(メタデータ) (2024-02-27T10:31:00Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - AesBench: An Expert Benchmark for Multimodal Large Language Models on
Image Aesthetics Perception [64.25808552299905]
AesBenchはMLLMの審美的知覚能力の総合評価を目的とした専門家ベンチマークである。
本稿では,プロの審美専門家が提供した多彩な画像内容と高品質なアノテーションを特徴とするEAPD(Expert-labeled Aesthetics Perception Database)を構築した。
本稿では,知覚(AesP),共感(AesE),評価(AesA),解釈(AesI)の4つの視点からMLLMの審美的知覚能力を測定するための統合的基準を提案する。
論文 参考訳(メタデータ) (2024-01-16T10:58:07Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Alignment for Honesty [113.42626737461129]
我々は、正直に整合することの重要性を主張し、言語モデルが知識が欠如している場合に、積極的に質問に答えることを拒否します。
この課題は、メトリクス開発、ベンチマーク作成、トレーニングという観点で包括的なソリューションを必要とする。
正直さを強調する複数の効率的な微調整技術によってさらにインスタンス化されるフレキシブルなトレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2023-12-12T06:10:42Z) - Challenges and Contributing Factors in the Utilization of Large Language
Models (LLMs) [10.039589841455136]
本稿では,大規模言語モデル (LLM) がニッチ分野における専門的な質問に対して正確な回答を提供するのに苦慮する領域特異性の問題について考察する。
トレーニングデータを多様化し、きめ細かいモデルを作成し、透明性と解釈可能性を高め、倫理と公正なトレーニングを取り入れることが推奨されている。
論文 参考訳(メタデータ) (2023-10-20T08:13:36Z) - Knowledge Crosswords: Geometric Reasoning over Structured Knowledge with
Large Language Models [51.35398315130094]
構造的知識に対する幾何学的推論を提案し、そこでは知識の一部がグラフ構造に連結され、モデルは不足した情報を埋める必要がある。
このような幾何学的知識推論は、構造化された知識、不確実性のある推論、事実の検証、エラーが発生した時のバックトラックを扱う能力を必要とする。
本稿では,不完全なエンティティネットワークの幾何学的制約を表す自然言語質問からなるマルチブランクQAデータセットであるKnowledge Crosswordsを提案する。
論文 参考訳(メタデータ) (2023-10-02T15:43:53Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。