論文の概要: OWL Reasoners still useable in 2023
- arxiv url: http://arxiv.org/abs/2309.06888v1
- Date: Wed, 13 Sep 2023 11:22:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 14:30:12.546902
- Title: OWL Reasoners still useable in 2023
- Title(参考訳): 2023年現在も使えるOWLレゾネーター
- Authors: Konrad Abicht
- Abstract要約: この研究は、OWL推論器を使った95のスタンドアロンOWL推論器とシステムからなる総合的なリストである。
各項目について、プロジェクトページ、ソースコードリポジトリ、関連ドキュメントに関する情報が収集された。
生の研究データはGithubリポジトリに公開されており、誰でも利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a systematic literature and software review over 100 OWL reasoners/systems
were analyzed to see if they would still be usable in 2023. This has never been
done in this capacity. OWL reasoners still play an important role in knowledge
organisation and management, but the last comprehensive surveys/studies are
more than 8 years old. The result of this work is a comprehensive list of 95
standalone OWL reasoners and systems using an OWL reasoner. For each item,
information on project pages, source code repositories and related
documentation was gathered. The raw research data is provided in a Github
repository for anyone to use.
- Abstract(参考訳): 系統的な文献とソフトウェアレビューにおいて、100以上のOWL推論/システムを分析し、2023年にまだ使えるかどうかを確認した。
この能力では一度も行われていない。
owl reasonersはいまだに知識組織とマネジメントにおいて重要な役割を担っているが、最後の包括的な調査/研究は8年以上前のものだ。
この研究の結果は、95のスタンドアロンOWL推論器とOWL推論器を用いたシステムからなる総合的なリストである。
各項目について、プロジェクトページ、ソースコードリポジトリ、関連ドキュメントに関する情報が収集された。
生の研究データはgithubリポジトリに提供され、誰でも利用できる。
関連論文リスト
- Usefulness of LLMs as an Author Checklist Assistant for Scientific Papers: NeurIPS'24 Experiment [59.09144776166979]
大規模言語モデル(LLM)は、科学的ピアレビューを支援する上で有望だが議論の余地のあるツールである。
本研究は,論文提出を提出基準に適合させるツールとして,会議環境におけるLCMの有用性を評価する。
論文 参考訳(メタデータ) (2024-11-05T18:58:00Z) - Evidence-backed Fact Checking using RAG and Few-Shot In-Context Learning with LLMs [9.785096589765908]
ファクトチェックシステムの性能評価には,Averitecデータセットを使用します。
精度予測に加えて,本システムでは,データセットから抽出した証拠を裏付ける。
本システムでは,ベースラインに対する22%の絶対改善である0.33の「平均」スコアを達成している。
論文 参考訳(メタデータ) (2024-08-22T01:42:34Z) - Summary of a Haystack: A Challenge to Long-Context LLMs and RAG Systems [124.82815637571413]
我々は、文書のHaystackを合成する手順を設計し、特定のテキストが文書間で繰り返されることを保証します。
すると、"Summary of a Haystack"(SummHay)タスクは、Haystackを処理し、クエリ、関連する洞察を特定し、ソースドキュメントを正確に引用する要約を生成するシステムを必要とする。
論文 参考訳(メタデータ) (2024-07-01T15:23:42Z) - UMBRELA: UMbrela is the (Open-Source Reproduction of the) Bing RELevance Assessor [51.20527342770299]
UMBRELAはオープンソースツールキットで、OpenAIのGPT-4oモデルを使ってThomasらの結果を再現する。
我々のツールキットは、容易に研究できるように設計されており、既存の多段階検索および評価パイプラインに統合することができる。
UMBRELAはTREC 2024RAGトラックで、関連性評価を支援するために使用される。
論文 参考訳(メタデータ) (2024-06-10T17:58:29Z) - Analyzing the Accessibility of GitHub Repositories for PyPI and NPM Libraries [91.97201077607862]
産業アプリケーションはオープンソースソフトウェア(OSS)ライブラリに大きく依存しており、様々な利点を提供している。
このようなコミュニティの活動を監視するには、エコシステムのライブラリの包括的なリポジトリのリストにアクセスしなければなりません。
本研究では、PyPIライブラリとNPMライブラリのGitHubリポジトリのアクセシビリティを分析する。
論文 参考訳(メタデータ) (2024-04-26T13:27:04Z) - DataDreamer: A Tool for Synthetic Data Generation and Reproducible LLM Workflows [72.40917624485822]
我々は、研究者が強力な大規模言語モデルを実装することができるオープンソースのPythonライブラリであるDataDreamerを紹介した。
DataDreamerはまた、オープンサイエンスを促進するために提案するベストプラクティスに研究者が従うのを助ける。
論文 参考訳(メタデータ) (2024-02-16T00:10:26Z) - Using Large Language Models for Knowledge Engineering (LLMKE): A Case
Study on Wikidata [3.0199774504647583]
ISWC 2023 LM-KBC Challengeの文脈において,知識工学のタスクにLarge Language Models (LLMs) を用いることを検討する。
本課題では,Wikidata から抽出した対象と関係のペアについて,学習済みの LLM を用いて,関連オブジェクトを文字列形式で生成し,それぞれの Wikidata QID にリンクする。
論文 参考訳(メタデータ) (2023-09-15T15:51:14Z) - Causal-learn: Causal Discovery in Python [53.17423883919072]
因果発見は、観測データから因果関係を明らかにすることを目的としている。
$textitcausal-learn$は因果発見のためのオープンソースのPythonライブラリである。
論文 参考訳(メタデータ) (2023-07-31T05:00:35Z) - The OCEAN mailing list data set: Network analysis spanning mailing lists
and code repositories [0.0]
我々は、Pythonコミュニティのメーリングリストを組み合わせて標準化し、1995年から現在までの954,287のメッセージを得た。
これらのデータの有用性を示すために、私たちはCPythonリポジトリに集中し、技術的レイヤとソーシャルレイヤをマージします。
これらのデータがどのようにして、大規模なオープンソースプロジェクトにおける標準的な組織科学の理論をテストする実験室を提供するかについて議論する。
論文 参考訳(メタデータ) (2022-04-01T17:50:15Z) - Atomized Search Length: Beyond User Models [12.42868925284099]
現在のIRメトリクスは、ユーザーエクスペリエンスの最適化をモデルにしており、IR空間の一部が狭すぎる。
IRシステムが弱い場合、これらのメトリクスは、改善が必要なより深いドキュメントをアンサンプまたは完全にフィルタリングする。
2020年のDeep Learningのトラックでは、ニューラルネットワークが最上位のドキュメントに対してほぼ最適であったことが示されています。
論文 参考訳(メタデータ) (2022-01-05T18:10:30Z) - DaRLing: A Datalog rewriter for OWL 2 RL ontological reasoning under
SPARQL queries [3.0938904602244346]
我々はRDFSデータ型のサポートとは別に,多種多様なセマンティックコンストラクタを提供するOWL 2 RLに注目している。
このギャップを埋めるために、私たちは、SPARQLクエリの下でOWL 2 RLのオントロジ推論のために無料で利用可能なDatalogリライターであるDaRLingを紹介します。
論文 参考訳(メタデータ) (2020-08-05T16:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。