論文の概要: General-purpose AI models can generate actionable knowledge on agroecological crop protection
- arxiv url: http://arxiv.org/abs/2512.11474v1
- Date: Fri, 12 Dec 2025 11:17:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.744321
- Title: General-purpose AI models can generate actionable knowledge on agroecological crop protection
- Title(参考訳): 汎用AIモデルは、農業的作物保護に関する実用的な知識を生成できる
- Authors: Kris A. G. Wyckhuys,
- Abstract要約: 我々は,Webグラウンドや非グラウンドの大規模言語モデルが生み出す農業的作物保護に関する科学的知識を検証する。
DeepSeekは継続的に4.8-49.7倍の文献コーパスを検査し、ChatGPTよりも1.6-2.4倍の生物学的制御剤や管理ソリューションを報告した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative artificial intelligence (AI) offers potential for democratizing scientific knowledge and converting this to clear, actionable information, yet its application in agri-food science remains unexplored. Here, we verify the scientific knowledge on agroecological crop protection that is generated by either web-grounded or non-grounded large language models (LLMs), i.e., DeepSeek versus the free-tier version of ChatGPT. For nine globally limiting pests, weeds, and plant diseases, we assessed the factual accuracy, data consistency, and breadth of knowledge or data completeness of each LLM. Overall, DeepSeek consistently screened a 4.8-49.7-fold larger literature corpus and reported 1.6-2.4-fold more biological control agents or management solutions than ChatGPT. As a result, DeepSeek reported 21.6% higher efficacy estimates, exhibited greater laboratory-to-field data consistency, and showed more realistic effects of pest identity and management tactics. However, both models hallucinated, i.e., fabricated fictitious agents or references, reported on implausible ecological interactions or outcomes, confused old and new scientific nomenclatures, and omitted data on key agents or solutions. Despite these shortcomings, both LLMs correctly reported low-resolution efficacy trends. Overall, when paired with rigorous human oversight, LLMs may pose a powerful tool to support farm-level decision-making and unleash scientific creativity.
- Abstract(参考訳): 生成的人工知能(AI)は、科学的知識を民主化し、それを明確で行動可能な情報に変換する可能性を秘めている。
本稿では,ウェブ・グラウンドないし非グラウンド・大型言語モデル(LLM),すなわちDeepSeekとChatGPTの無料版による農作物保護に関する科学的知識を検証する。
世界中の害虫,雑草,植物病の9種について,各LSMの事実的正確性,データの整合性,知識の広さ,データ完全性を評価した。
全体として、DeepSeekは4.8-49.7倍の文献コーパスを一貫してスクリーニングし、ChatGPTよりも1.6-2.4倍の生物学的制御剤や管理ソリューションを報告した。
その結果、DeepSeekは21.6%高い有効性評価を報告し、より実験室間データの一貫性を示し、害虫の識別と管理の戦術のより現実的な効果を示した。
しかし、どちらのモデルも幻覚的、すなわち創作された架空のエージェントや参照は、不確実な生態的相互作用や結果、古い新しい科学的命名法を混乱させ、キーエージェントやソリューションに関するデータを省略した。
これらの欠点にもかかわらず、両方のLSMは低分解能効果の傾向を正しく報告した。
全体としては、厳格な人間の監視と組み合わせることで、LLMは農業レベルの意思決定と科学的創造性を解き放つための強力なツールとなるかもしれない。
関連論文リスト
- Improving Scientific Hypothesis Generation with Knowledge Grounded Large Language Models [20.648157071328807]
大規模言語モデル(LLM)は、既存の知識を分析することによって、新しい研究の方向性を特定することができる。
LLMは幻覚を発生させる傾向がある。
我々は,知識グラフから外部構造的知識を統合することで,LLM仮説の生成を促進するシステムKG-CoIを提案する。
論文 参考訳(メタデータ) (2024-11-04T18:50:00Z) - BioDiscoveryAgent: An AI Agent for Designing Genetic Perturbation Experiments [112.25067497985447]
そこで,BioDiscoveryAgentを紹介した。このエージェントは,新しい実験を設計し,その結果の理由を明らかにし,仮説空間を効率的にナビゲートし,望ましい解に到達させる。
BioDiscoveryAgentは、機械学習モデルをトレーニングすることなく、新しい実験を独自に設計することができる。
6つのデータセットで関連する遺伝的摂動を予測することで、平均21%の改善が達成されている。
論文 参考訳(メタデータ) (2024-05-27T19:57:17Z) - Can Large Language Models Detect Misinformation in Scientific News
Reporting? [1.0344642971058586]
本稿では,科学的報告における誤情報の検出に大規模言語モデル(LLM)を用いることが可能であるかを検討する。
最初にラベル付きデータセットSciNewsを提示し、信頼できない情報源から抜粋された2.4万の科学ニュース記事を含む。
科学ニュース記事の科学的妥当性の次元を識別し、科学的誤報の自動検出にどのように組み込むかを検討する。
論文 参考訳(メタデータ) (2024-02-22T04:07:00Z) - An Evaluation of Large Language Models in Bioinformatics Research [52.100233156012756]
本研究では,大規模言語モデル(LLM)の性能について,バイオインフォマティクスの幅広い課題について検討する。
これらのタスクには、潜在的なコーディング領域の同定、遺伝子とタンパク質の命名されたエンティティの抽出、抗微生物および抗がんペプチドの検出、分子最適化、教育生物情報学問題の解決が含まれる。
以上の結果から, GPT 変種のような LLM がこれらのタスクの多くをうまく処理できることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:27:31Z) - Discovering and Reasoning of Causality in the Hidden World with Large Language Models [109.62442253177376]
我々はCausal representatiOn AssistanT(COAT)と呼ばれる新しいフレームワークを開発し、因果発見に有用な測定変数を提案する。
大規模言語モデル (LLM) と因果関係を直接推論する代わりに、COAT は中間因果発見結果から LLM へのフィードバックを構築し、提案した変数を洗練させる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Can large language models democratize access to dual-use biotechnology? [0.0]
大規模言語モデル(LLM)は研究を加速し、民主化している。
これらのモデルはまた、大きな損害を与える可能性のあるデュアルユース技術への容易なアクセスを与えるかもしれない。
このリスクを評価するため、MITの'Safeguarding the Future'コースでは、非科学者の学生を対象に調査を行った。
論文 参考訳(メタデータ) (2023-06-06T15:52:05Z) - Large Language Models, scientific knowledge and factuality: A framework to streamline human expert evaluation [0.0]
本研究は,生物医学的背景知識と対話するための大規模言語モデルの可能性を探るものである。
フレームワークには3つの評価ステップが含まれており、それぞれが流布、即応的なアライメント、セマンティック・コヒーレンス、事実的知識、生成した応答の特異性という3つの側面を逐次評価する。
この研究は、ChatGPT、GPT-4、Llama 2を含む11の最先端のLLMを2つのプロンプトベースタスクで持つ能力に関する体系的な評価を提供する。
論文 参考訳(メタデータ) (2023-05-28T22:46:21Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。