論文の概要: Explanation Container in Case-Based Biomedical Question-Answering
- arxiv url: http://arxiv.org/abs/2112.06780v1
- Date: Mon, 13 Dec 2021 16:44:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 17:21:46.251196
- Title: Explanation Container in Case-Based Biomedical Question-Answering
- Title(参考訳): ケースベースバイオメディカル質問応答における説明コンテナ
- Authors: Prateek Goel, Adam J. Johs, Manil Shrestha, and Rosina O. Weber
- Abstract要約: 国立翻訳科学センター(National Center for Advancing Translational Sciences, NCATS)は、翻訳科学者が直面する問題を緩和することを目的としている。
Translatorは、6つの自律型中継エージェント(ARA)と8つの知識プロバイダ(KP)で構成されるマルチエージェントアーキテクチャである。
本稿では、複数のKPにアクセスし、ランキング結果にアクセスし、結果のランキングを説明することにより、バイオメディカルクエリに回答するケースベースARAである説明エージェント(xARA)の設計について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The National Center for Advancing Translational Sciences(NCATS) Biomedical
Data Translator (Translator) aims to attenuate problems faced by translational
scientists. Translator is a multi-agent architecture consisting of six
autonomous relay agents (ARAs) and eight knowledge providers (KPs). In this
paper, we present the design of the Explanatory Agent (xARA), a case-based ARA
that answers biomedical queries by accessing multiple KPs, ranking results, and
explaining the ranking of results. The Explanatory Agent is designed with five
knowledge containers that include the four original knowledge containers and
one additional container for explanation - the Explanation Container. The
Explanation Container is case-based and designed with its own knowledge
containers.
- Abstract(参考訳): The National Center for Advancing Translational Sciences (NCATS) Biomedical Data Translator (Translator)は、翻訳科学者が直面する問題を緩和することを目的としている。
Translatorは、6つの自律リレーエージェント(ARA)と8つの知識プロバイダ(KP)で構成されるマルチエージェントアーキテクチャである。
本稿では,複数のkpsにアクセスし,ランキング結果にアクセスし,結果のランキングを説明することで,生物医学的問合せに答えるケースベースのaraである説明エージェント (xara) の設計について述べる。
説明エージェントは、オリジナルの4つの知識コンテナと説明のための1つの追加のコンテナを含む5つの知識コンテナで設計されている。
Explanation Containerはケースベースで、独自のナレッジコンテナで設計されている。
関連論文リスト
- Benchmarking GPT-4 against Human Translators: A Comprehensive Evaluation Across Languages, Domains, and Expertise Levels [20.05501751993599]
GPT-4は、全エラーの点において、中級のトランスレータに匹敵する性能を達成する。
従来のニューラル機械翻訳システムとは異なり、GPT-4は全ての評価された言語対に対して一貫した翻訳品質を維持している。
論文 参考訳(メタデータ) (2024-11-21T01:12:46Z) - CRAT: A Multi-Agent Framework for Causality-Enhanced Reflective and Retrieval-Augmented Translation with Large Language Models [59.8529196670565]
CRATは、RAGと因果強化自己回帰を利用して翻訳課題に対処する、新しいマルチエージェント翻訳フレームワークである。
以上の結果からCRATは翻訳精度を著しく向上させ,特に文脈に敏感な単語や語彙の出現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-28T14:29:11Z) - Knowledge Graph Based Agent for Complex, Knowledge-Intensive QA in Medicine [31.080514888803886]
生物医学の科学者は推論への単一のアプローチに頼っていない。
KGARevionは、医療クエリの複雑さに対処するために設計された知識グラフベースのエージェントである。
論文 参考訳(メタデータ) (2024-10-07T00:17:37Z) - FEDMEKI: A Benchmark for Scaling Medical Foundation Models via Federated Knowledge Injection [83.54960238236548]
FEDMEKIはデータのプライバシーを守るだけでなく、医療基盤モデルの能力を高める。
FEDMEKIは、医療ファンデーションモデルに対して、直接データを公開することなく、幅広い医療知識から学ぶことを可能にする。
論文 参考訳(メタデータ) (2024-08-17T15:18:56Z) - GPT-4 vs. Human Translators: A Comprehensive Evaluation of Translation Quality Across Languages, Domains, and Expertise Levels [18.835573312027265]
本研究では,人間の翻訳者に対するLarge Language Models(LLMs)の翻訳品質を包括的に評価する。
また, GPT-4は, 中高の翻訳者よりも遅れが小さいため, 中高の翻訳者に対して同等に機能することがわかった。
論文 参考訳(メタデータ) (2024-07-04T05:58:04Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - Distinguish Before Answer: Generating Contrastive Explanation as
Knowledge for Commonsense Question Answering [61.53454387743701]
本稿では,概念中心のPrompt-bAsed Contrastive Explanation GenerationモデルであるCPACEを提案する。
CPACEは、得られたシンボル知識を、与えられた候補間の差異をよりよく区別するために、対照的な説明に変換する。
本稿では,CSQA,QASC,OBQAの3つの質問回答データセットについて実験を行った。
論文 参考訳(メタデータ) (2023-05-14T12:12:24Z) - Extraction of Constituent Factors of Digestion Efficiency in Information
Transfer by Media Composed of Texts and Images [0.07614628596146598]
本稿では,受信者が取得した情報とその内容,その目的を正しく理解する上での「情報消化」の概念を提案する。
本研究では,階層的因子分析と4種類のメディアによる消化能を構成する因子の抽出による情報消化能の評価モデルを提案した。
論文 参考訳(メタデータ) (2023-02-17T23:45:02Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - Knowledge-Empowered Representation Learning for Chinese Medical Reading
Comprehension: Task, Model and Resources [36.960318276653986]
医療領域を対象としたマルチターゲットMRCタスクを導入し,医療質問に対する回答とそれに対応する文章を同時に予測することを目的とする。
本稿では, 医学知識を事前学習言語モデルに融合させる, タスクのための中国の医療用BERTモデル(CMedBERT)を提案する。
実験の結果,CMedBERTはコンテキスト認識と知識認識のトークン表現を融合することにより,強いベースラインを一貫して上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-24T11:23:28Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。