論文の概要: Fine-Tuning and Evaluating Conversational AI for Agricultural Advisory
- arxiv url: http://arxiv.org/abs/2603.03294v1
- Date: Fri, 06 Feb 2026 10:18:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.11836
- Title: Fine-Tuning and Evaluating Conversational AI for Agricultural Advisory
- Title(参考訳): 農業アドバイザリーのための会話型AIの微調整と評価
- Authors: Sanyam Singh, Naga Ganesh, Vineet Singh, Lakshmi Pedapudi, Ritesh Kumar, SSP Jyothi, Archana Karanam, C. Yashoda, Mettu Vijaya Rekha Reddy, Shesha Phani Debbesa, Chandan Dash,
- Abstract要約: 大規模言語モデルは農業の助言を約束するが、バニラモデルは推奨されない勧告を示す。
本稿では,会話配信から事実検索を分離するハイブリッドLLMアーキテクチャを提案する。
インドのビハールで行われた作物とクエリの実験では、キュレートされたデータの微調整により、事実のリコールとF1が大幅に改善された。
- 参考スコア(独自算出の注目度): 0.5839782776991492
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models show promise for agricultural advisory, yet vanilla models exhibit unsupported recommendations, generic advice lacking specific, actionable detail, and communication styles misaligned with smallholder farmer needs. In high stakes agricultural contexts, where recommendation accuracy has direct consequences for farmer outcomes, these limitations pose challenges for responsible deployment. We present a hybrid LLM architecture that decouples factual retrieval from conversational delivery: supervised fine-tuning with LoRA on expert-curated GOLDEN FACTS (atomic, verified units of agricultural knowledge) optimizes fact recall, while a separate stitching layer transforms retrieved facts into culturally appropriate, safety-aware responses. Our evaluation framework, DG-EVAL, performs atomic fact verification (measuring recall, precision, and contradiction detection) against expert-curated ground truth rather than Wikipedia or retrieved documents. Experiments across multiple model configurations on crops and queries from Bihar, India show that fine-tuning on curated data substantially improves fact recall and F1, while maintaining high relevance. Using a fine-tuned smaller model achieves comparable or better factual quality at a fraction of the cost of frontier models. A stitching layer further improves safety subscores while maintaining high conversational quality. We release the farmerchat-prompts library to enable reproducible development of domain-specific agricultural AI.
- Abstract(参考訳): 大規模言語モデルは農業の助言を約束するが、バニラモデルは支持できない勧告、具体的、行動可能な詳細を欠いた一般的なアドバイス、小作農のニーズと一致しないコミュニケーションスタイルを示す。
農業における高い利害関係において、推奨精度が農家の成果に直接的な影響をもたらす場合、これらの制限は責任ある展開に困難をもたらす。
専門家が計算したGOLDEN FACTS(原子的、検証済みの農業知識単位)上でLoRAとの微調整を監督し、ファクトリコールを最適化するハイブリッドLLMアーキテクチャを、検索したファクトを文化的に適切な安全に配慮した応答に変換する。
我々の評価フレームワークであるDG-EVALは、Wikipediaや検索された文書よりも専門家が作成した真実に対する原子的事実検証(リコール、精度、矛盾検出)を行う。
インドのビハールで、作物やクエリに関する複数のモデル構成の実験により、キュレートされたデータの微調整により、ファクトリコールとF1が大幅に改善され、高い関連性を維持していることが示された。
微調整された小さなモデルを使用することで、フロンティアモデルのコストのごく一部で、同等またはより優れた事実品質が得られる。
縫合層は、高い会話品質を維持しつつ、安全性のサブスコアをさらに向上させる。
我々は、ドメイン固有の農業用AIの再現可能な開発を可能にするため、ファーマーチャット・プロンプトライブラリをリリースする。
関連論文リスト
- Agri-R1: Empowering Generalizable Agricultural Reasoning in Vision-Language Models with Reinforcement Learning [22.34625628938106]
我々は,農業用大規模モデルであるtextbfAgri-R1を提案する。
我々のフレームワークは、視覚言語合成とLLMに基づくフィルタリングによる高品質な推論データを生成する。
疾患認識の精度は+23.2%、農業知識のQAは+33.3%、クロスドメインの一般化は+26.10ポイント向上した。
論文 参考訳(メタデータ) (2026-01-08T07:34:37Z) - Dynamic Orchestration of Multi-Agent System for Real-World Multi-Image Agricultural VQA [14.881994273322627]
農業の視覚的質問応答は、農家や研究者に正確でタイムリーな知識を提供することに不可欠である。
本稿では,Retriever,Reflector,Answerer,Improverの4つの役割を統合した自己修正型自己改善型マルチエージェントフレームワークを提案する。
AgMMUベンチマーク実験により, マルチイメージ農業QAにおける競争性能が得られた。
論文 参考訳(メタデータ) (2025-09-29T06:52:10Z) - Leveraging Synthetic Data for Question Answering with Multilingual LLMs in the Agricultural Domain [1.0144032120138065]
本研究は,インドの農業特化資料から多言語(ヒンディー語,パンジャービ語)の合成データセットを生成する。
人為的データセットの評価は、事実性、関連性、農業コンセンサスにおいて著しく改善されている。
論文 参考訳(メタデータ) (2025-07-22T19:25:10Z) - Attributing Response to Context: A Jensen-Shannon Divergence Driven Mechanistic Study of Context Attribution in Retrieval-Augmented Generation [52.3707788779464]
我々は、コンテキストに対する属性応答(ARC-JSD)のための新しいJensen-Shannon Divergence駆動方式を提案する。
ARC-JSDは、追加の微調整、勾配計算、サロゲートモデリングなしで、重要な文脈文の効率的かつ正確な識別を可能にする。
TyDi QA, Hotpot QA, Musique など,様々なスケールの命令調整 LLM を用いたRAG ベンチマークの評価により,精度が向上し,計算効率が向上した。
論文 参考訳(メタデータ) (2025-05-22T09:04:03Z) - AgroGPT: Efficient Agricultural Vision-Language Model with Expert Tuning [30.034193330398292]
本稿では,農業領域における視覚のみのデータを活用した指導調整データの構築手法を提案する。
我々は、複数のドメインにまたがる多様な農業データセットを利用し、クラス固有の情報をキュレートし、大規模言語モデル(LLM)を用いてエキスパートチューニングセットを構築する。
AgroGPTは、複雑な農業関連の会話を処理し、有用な洞察を提供する効率的なLMMである。
論文 参考訳(メタデータ) (2024-10-10T22:38:26Z) - Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - FactCHD: Benchmarking Fact-Conflicting Hallucination Detection [64.4610684475899]
FactCHD は LLM からファクトコンフリクトの幻覚を検出するために設計されたベンチマークである。
FactCHDは、バニラ、マルチホップ、比較、セット操作など、さまざまな事実パターンにまたがる多様なデータセットを備えている。
Llama2 に基づくツール強化 ChatGPT と LoRA-tuning による反射的考察を合成する Truth-Triangulator を提案する。
論文 参考訳(メタデータ) (2023-10-18T16:27:49Z) - WiCE: Real-World Entailment for Claims in Wikipedia [63.234352061821625]
We propose WiCE, a new fine-fine textual entailment dataset built on natural claim and evidence pairs from Wikipedia。
標準クレームレベルのエンターメントに加えて、WiCEはクレームのサブ文単位に対するエンターメント判断を提供する。
我々のデータセットの真のクレームは、既存のモデルで対処できない検証と検索の問題に挑戦することを含んでいる。
論文 参考訳(メタデータ) (2023-03-02T17:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。