論文の概要: Kissan-Dost: Bridging the Last Mile in Smallholder Precision Agriculture with Conversational IoT
- arxiv url: http://arxiv.org/abs/2602.08593v1
- Date: Mon, 09 Feb 2026 12:34:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.227663
- Title: Kissan-Dost: Bridging the Last Mile in Smallholder Precision Agriculture with Conversational IoT
- Title(参考訳): Kissan-Dost: 会話型IoTによる小作農の最後のマイルを埋める
- Authors: Muhammad Saad Ali, Daanish U. Khan, Laiba Intizar Ahmad, Umer Irfan, Maryam Mustafa, Naveed Anwar Bhatti, Muhammad Hamad Alizai,
- Abstract要約: Kissan-Dostは、マルチリンガルでセンサーで座った会話システムで、ライブのオンファーム計測と天気をWhatsAppのテキストや音声による平易なガイダンスに変える。
99のセンサグラウンドクロップクエリの制御されたテストは、秒単位のエンドツーエンドレイテンシで90%以上の正確性を達成した。
結果は、新しい回路ではなく、注意深いラストマイル統合が、スモールホルダーにとって既存のAgri-IoTの潜在価値を解放することを示している。
- 参考スコア(独自算出の注目度): 1.8323001213919563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Kissan-Dost, a multilingual, sensor-grounded conversational system that turns live on-farm measurements and weather into plain-language guidance delivered over WhatsApp text or voice. The system couples commodity soil and climate sensors with retrieval-augmented generation, then enforces grounding, traceability, and proactive alerts through a modular pipeline. In a 90-day, two-site pilot with five participants, we ran three phases (baseline, dashboard only, chatbot only). Dashboard engagement was sporadic and faded, while the chatbot was used nearly daily and informed concrete actions. Controlled tests on 99 sensor-grounded crop queries achieved over 90 percent correctness with subsecond end-to-end latency, alongside high-quality translation outputs. Results show that careful last-mile integration, not novel circuitry, unlocks the latent value of existing Agri-IoT for smallholders.
- Abstract(参考訳): Kissan-Dostは、マルチリンガルでセンサーで座った会話システムで、ライブのオンファーム計測と天気をWhatsAppのテキストや音声による平易なガイダンスに変える。
このシステムは、コモディティの土壌と気候センサーを、検索を増強した世代に結合し、モジュールパイプラインを通じて接地、トレーサビリティ、および積極的な警告を強制する。
参加者が5人いる90日間の2サイトパイロットでは、3つのフェーズ(ベースライン、ダッシュボードのみ、チャットボットのみ)を実行しました。
ダッシュボードのエンゲージメントは散発的で,チャットボットはほぼ毎日使用され,具体的な行動が報告された。
99のセンサグラウンドクロップクエリの制御されたテストは、高品質な変換出力とともに、サブ秒からエンドツーエンドのレイテンシで90%以上の正確性を達成した。
結果は、新しい回路ではなく、注意深いラストマイル統合が、スモールホルダーにとって既存のAgri-IoTの潜在価値を解放することを示している。
関連論文リスト
- AIxcellent Vibes at GermEval 2025 Shared Task on Candy Speech Detection: Improving Model Performance by Span-Level Training [0.0]
46k-comment German YouTube corpusにおいて,キャンディー音声を確実に検出する方法について検討した。
マルチリンガルなXLM-RoBERTa-Largeモデルは,スパンレベルでのキャンディー音声の検出を訓練し,他の手法よりも優れていることがわかった。
我々は、スパンベーストレーニング、多言語機能、絵文字対応トークン化器による検出性能の向上を推察した。
論文 参考訳(メタデータ) (2025-09-09T07:29:14Z) - Optimizing Multilingual Text-To-Speech with Accents & Emotions [0.0]
本稿では,アクセントを付加した新しいTSアーキテクチャを提案する。
本稿では,言語固有の音素アライメント型エンコーダ-デコーダアーキテクチャを統合することで,Parler-TTSモデルを拡張した。
テストでは、アクセント精度が23.7%改善し、ネイティブリスナーによる感情認識精度が85.3%向上した。
論文 参考訳(メタデータ) (2025-06-19T13:35:05Z) - SemEval-2025 Task 11: Bridging the Gap in Text-Based Emotion Detection [76.18321723846616]
タスクは7つの異なる言語ファミリーから30以上の言語をカバーしている。
データインスタンスは6つの感情クラスでマルチラベルされており、感情の強さに注釈を付けた11言語にデータセットが追加されている。
参加者は, (a) マルチラベル感情検出, (b) 感情強度スコア検出, (c) 言語間感情検出の3つのトラックでラベルの予測を依頼された。
論文 参考訳(メタデータ) (2025-03-10T12:49:31Z) - GenAI Content Detection Task 3: Cross-Domain Machine-Generated Text Detection Challenge [71.69373986176839]
モデルが巨大な、固定された、多数のドメインとLLMから生成されたテキストを検出できるかどうかを問う。
3ヶ月の間に、23の検出器を提出した9つのチームによって、我々のタスクが試みられた。
その結果, RAID から生成したテキストに対して, 5% の偽陽性率を維持しながら, 精度が 99% を超えることが判明した。
論文 参考訳(メタデータ) (2025-01-15T16:21:09Z) - X-TURING: Towards an Enhanced and Efficient Turing Test for Long-Term Dialogue Agents [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すかどうかを調べる。
従来の設定では、各参加者は一度に1つのメッセージに制限される。
本稿では,textitburstダイアログパターンを用いて,元のテストを強化するtextbftextscX-Turingを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Bridging the Gap Between End-to-End and Two-Step Text Spotting [88.14552991115207]
ブリッジングテキストスポッティングは、2段階のメソッドでエラーの蓄積と最適化性能の問題を解決する新しいアプローチである。
提案手法の有効性を広範囲な実験により実証する。
論文 参考訳(メタデータ) (2024-04-06T13:14:04Z) - When can I Speak? Predicting initiation points for spoken dialogue
agents [41.64197357473437]
事前学習した音声表現モデルから韻律的特徴を用いたリードタイムの開始を予測した。
われわれは、Switchboard Corpusのモデルをトレーニングし、評価し、私たちの手法が700ミリ秒の沈黙を待つ一般的なアプローチを大きく上回っていることを発見した。
論文 参考訳(メタデータ) (2022-08-07T20:58:52Z) - Unsupervised Speech Recognition [55.864459085947345]
wav2vec-Uは、ラベル付きデータなしで音声認識モデルを訓練する方法である。
我々は、自己教師付き音声表現を活用して、ラベルなし音声をセグメント化し、これらの表現から相手の訓練を通して音素へのマッピングを学習する。
より大きな英語のLibrispeechベンチマークでは、wav2vec-Uは、わずか2年前の960時間のラベル付きデータに基づいてトレーニングされた最も優れたシステムに匹敵する、他のテストで5.9の単語エラー率を達成した。
論文 参考訳(メタデータ) (2021-05-24T04:10:47Z) - Unmanned Aerial Vehicle Control Through Domain-based Automatic Speech
Recognition [0.0]
本稿では,ドローンなどの無人航空機を制御するためのドメインベース音声認識アーキテクチャを提案する。
ドローン制御は、より自然で人間的な方法で指示を伝える。
スペイン語と英語の両方を用いて,命令解釈のためのアルゴリズムを実装した。
論文 参考訳(メタデータ) (2020-09-09T11:17:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。