論文の概要: Dynamic Retrieval Augmented Generation of Ontologies using Artificial Intelligence (DRAGON-AI)
- arxiv url: http://arxiv.org/abs/2312.10904v2
- Date: Wed, 12 Jun 2024 17:15:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 23:13:33.921304
- Title: Dynamic Retrieval Augmented Generation of Ontologies using Artificial Intelligence (DRAGON-AI)
- Title(参考訳): 人工知能(DRAGON-AI)を用いた動的検索オントロジー生成
- Authors: Sabrina Toro, Anna V Anagnostopoulos, Sue Bello, Kai Blumberg, Rhiannon Cameron, Leigh Carmody, Alexander D Diehl, Damion Dooley, William Duncan, Petra Fey, Pascale Gaudet, Nomi L Harris, Marcin Joachimiak, Leila Kiani, Tiago Lubiana, Monica C Munoz-Torres, Shawn O'Neil, David Osumi-Sutherland, Aleix Puig, Justin P Reese, Leonore Reiser, Sofia Robb, Troy Ruemping, James Seager, Eric Sid, Ray Stefancsik, Magalie Weber, Valerie Wood, Melissa A Haendel, Christopher J Mungall,
- Abstract要約: AI(DRAGON-AI)を用いた動的検索オントロジー生成を提案する。
DRAGON-AIは、既存のインストラクションや構造化されていないテキストソースから、テキストおよび論理的なコンポーネントを生成することができる。
DRAGON-AIの自然言語をGitHubのイシューに組み込む能力についても実証した。
- 参考スコア(独自算出の注目度): 24.433048676289363
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Ontologies are fundamental components of informatics infrastructure in domains such as biomedical, environmental, and food sciences, representing consensus knowledge in an accurate and computable form. However, their construction and maintenance demand substantial resources and necessitate substantial collaboration between domain experts, curators, and ontology experts. We present Dynamic Retrieval Augmented Generation of Ontologies using AI (DRAGON-AI), an ontology generation method employing Large Language Models (LLMs) and Retrieval Augmented Generation (RAG). DRAGON-AI can generate textual and logical ontology components, drawing from existing knowledge in multiple ontologies and unstructured text sources. Results: We assessed performance of DRAGON-AI on de novo term construction across ten diverse ontologies, making use of extensive manual evaluation of results. Our method has high precision for relationship generation, but has slightly lower precision than from logic-based reasoning. Our method is also able to generate definitions deemed acceptable by expert evaluators, but these scored worse than human-authored definitions. Notably, evaluators with the highest level of confidence in a domain were better able to discern flaws in AI-generated definitions. We also demonstrated the ability of DRAGON-AI to incorporate natural language instructions in the form of GitHub issues. Conclusions: These findings suggest DRAGON-AI's potential to substantially aid the manual ontology construction process. However, our results also underscore the importance of having expert curators and ontology editors drive the ontology generation process.
- Abstract(参考訳): 背景:オントロジーは、バイオメディカル、環境、食品科学といった分野における情報基盤の基本的な構成要素であり、正確で計算可能な形でのコンセンサス知識を表している。
しかし、その建設と維持にはかなりの資源が必要であり、ドメインの専門家、キュレーター、オントロジーの専門家の間でかなりの協力を必要としている。
本稿では,Large Language Models (LLM) とRetrieval Augmented Generation (RAG) を用いたオントロジー生成手法であるAI (DRAGON-AI) を用いた動的検索用拡張オントロジー生成について述べる。
DRAGON-AIは、複数のオントロジーおよび非構造化テキストソースにおける既存の知識から、テキストおよび論理オントロジーコンポーネントを生成することができる。
結果:10のオントロジーにまたがるドノボ項構築におけるDRAGON-AIの有効性を評価し,広範囲な手作業による評価を行った。
本手法は関係生成の精度が高いが,論理に基づく推論よりも若干精度が低い。
また,本手法は,専門家評価者によって受け入れられていると考えられる定義を生成することができるが,人間による定義よりも評価が劣る。
特に、ドメインに最も信頼度の高い評価者は、AIが生成した定義の欠陥をよりよく識別することができた。
GitHubイシューの形で自然言語命令を組み込むDRAGON-AIの能力を実証した。
結論: DRAGON-AIが手動オントロジー構築プロセスに有効である可能性が示唆された。
しかし,本研究の結果は,専門家のキュレーターやオントロジーの編集者がオントロジー生成過程を推し進めることの重要性も浮き彫りにしている。
関連論文リスト
- The Artificial Intelligence Ontology: LLM-assisted construction of AI concept hierarchies [0.7796141041639462]
人工知能オントロジー(AIO)は、人工知能の概念、方法論、それらの相互関係の体系化である。
AIOは、AI技術の技術的側面と倫理的側面の両方を含む包括的なフレームワークを提供することによって、急速に進化するAIの展望に対処することを目指している。
論文 参考訳(メタデータ) (2024-04-03T20:08:15Z) - Extracting human interpretable structure-property relationships in
chemistry using XAI and large language models [0.4769602527256662]
本稿では,XAI手法と大規模言語モデル(LLM)を統合したXpertAIフレームワークを提案する。
以上の結果から,XpertAI は LLM と XAI ツールの強みを組み合わせ,具体的な,科学的,解釈可能な説明を生成することが示唆された。
論文 参考訳(メタデータ) (2023-11-07T15:02:32Z) - Levels of AGI for Operationalizing Progress on the Path to AGI [64.59151650272477]
本稿では,人工知能(AGI)モデルとその前駆体の性能と動作を分類する枠組みを提案する。
このフレームワークは、AGIのパフォーマンス、一般性、自律性のレベルを導入し、モデルを比較し、リスクを評価し、AGIへの道筋に沿って進捗を測定する共通の言語を提供する。
論文 参考訳(メタデータ) (2023-11-04T17:44:58Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - OAK4XAI: Model towards Out-Of-Box eXplainable Artificial Intelligence
for Digital Agriculture [4.286327408435937]
我々は農業における知識を説明するために農業コンピューティングオントロジー(AgriComO)を構築した。
XAIは、意思決定と訓練されたAIモデルに対して、人間に理解可能な説明を提供しようとしている。
論文 参考訳(メタデータ) (2022-09-29T21:20:25Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explainable AI For COVID-19 CT Classifiers: An Initial Comparison Study [3.4031539425106683]
説明可能なAI(XAI)は、AIとディープラーニングのためのブラックボックスのアンロックの鍵です。
胸部ctは、covid-19に関連する肺疾患の診断および治療管理に有用なツールである。
本研究の目的は、比較調査による新型コロナウイルス分類モデルのためのXAI戦略の提案と開発である。
論文 参考訳(メタデータ) (2021-04-25T23:39:14Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。