論文の概要: CAIRNS: Balancing Readability and Scientific Accuracy in Climate Adaptation Question Answering
- arxiv url: http://arxiv.org/abs/2512.02251v1
- Date: Mon, 01 Dec 2025 22:44:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.634457
- Title: CAIRNS: Balancing Readability and Scientific Accuracy in Climate Adaptation Question Answering
- Title(参考訳): CAIRNS:気候適応質問応答における可読性と科学的精度のバランス付け
- Authors: Liangji Kong, Aditya Joshi, Sarvnaz Karimi,
- Abstract要約: 改良された可読性と通知源(CAIRNS)を用いた気候適応型質問応答について述べる。
CAIRNSは、Webから複雑なエビデンスソースから、専門家が信頼できる予備回答を得ることを可能にするフレームワークである。
構造化されたScholarGuideプロンプトを通じて読みやすさと引用信頼性を高め、堅牢な評価を実現する。
- 参考スコア(独自算出の注目度): 10.31170458584116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Climate adaptation strategies are proposed in response to climate change. They are practised in agriculture to sustain food production. These strategies can be found in unstructured data (for example, scientific literature from the Elsevier website) or structured (heterogeneous climate data via government APIs). We present Climate Adaptation question-answering with Improved Readability and Noted Sources (CAIRNS), a framework that enables experts -- farmer advisors -- to obtain credible preliminary answers from complex evidence sources from the web. It enhances readability and citation reliability through a structured ScholarGuide prompt and achieves robust evaluation via a consistency-weighted hybrid evaluator that leverages inter-model agreement with experts. Together, these components enable readable, verifiable, and domain-grounded question-answering without fine-tuning or reinforcement learning. Using a previously reported dataset of expert-curated question-answers, we show that CAIRNS outperforms the baselines on most of the metrics. Our thorough ablation study confirms the results on all metrics. To validate our LLM-based evaluation, we also report an analysis of correlations against human judgment.
- Abstract(参考訳): 気候変動に対応するため、気候適応戦略が提案されている。
彼らは食糧生産を維持するために農業に従事している。
これらの戦略は、非構造化データ(例えばElsevierのWebサイトにある科学文献)や構造化データ(政府APIによる異質な気候データ)で見ることができる。
我々は、専門家(農業顧問)がWebから複雑なエビデンスソースから信頼できる予備回答を得ることを可能にするフレームワークであるCAIRNS(Climate Adaptation Question-Awering with Improved Readability and Noted Sources)を提案する。
構造化されたScholarGuideプロンプトを通じて可読性と励振信頼性を高め、専門家とのモデル間合意を活用した一貫性重み付きハイブリッド評価器による堅牢な評価を実現する。
これらのコンポーネントを組み合わせることで、微調整や強化学習をすることなく、読みやすく、検証可能で、ドメイン地上の質問応答が可能になる。
これまでに報告された専門家による質問回答のデータセットを用いて、CAIRNSがほとんどのメトリクスのベースラインを上回っていることを示す。
我々の徹底的なアブレーション調査は、すべての指標で結果を確認します。
また, LLMによる評価を検証するために, 人間の判断に対する相関分析を行った。
関連論文リスト
- SciRAG: Adaptive, Citation-Aware, and Outline-Guided Retrieval and Synthesis for Scientific Literature [52.36039386997026]
我々は科学文献探索のためのオープンソースのフレームワークであるSciRAGを紹介する。
1) 逐次的証拠収集と並列的証拠収集を柔軟に交互に交互に行う適応的検索,(2) 引用グラフを利用して文書を整理・フィルタリングする引用型記号推論,(3) 整合性と透過的帰属性を確保するために回答を計画・批評・洗練するアウトライン誘導合成,である。
論文 参考訳(メタデータ) (2025-11-18T11:09:19Z) - CLINB: A Climate Intelligence Benchmark for Foundational Models [31.884362929125363]
オープンエンド,グラウンドド,マルチモーダルな質問応答タスクのモデルを評価するベンチマークであるCLINBを紹介する。
モデルに基づく評価プロセスを実装し,いくつかのフロンティアモデルを評価する。
論文 参考訳(メタデータ) (2025-10-29T16:15:42Z) - LiRA: A Multi-Agent Framework for Reliable and Readable Literature Review Generation [66.09346158850308]
文献レビュープロセスをエミュレートする多エージェント協調ワークフローLiRA(Literature Review Agents)を提案する。
LiRAは、コンテンツアウトライン、サブセクションの執筆、編集、レビュー、コヒーシブで包括的なレビュー記事の作成に特殊エージェントを使用している。
実世界のシナリオにおいて文書検索を用いてLiRAを評価し,そのロバスト性を評価する。
論文 参考訳(メタデータ) (2025-10-01T12:14:28Z) - ClimateBench-M: A Multi-Modal Climate Data Benchmark with a Simple Generative Method [61.76389719956301]
我々は、ERA5の時系列気候データ、NOAAの極度の気象イベントデータ、NASAの衛星画像データを調整するマルチモーダル気候ベンチマークであるClimateBench-Mに貢献する。
また,各データモダリティの下では,天気予報,雷雨警報,作物の分断作業において,競争性能を向上できる簡易かつ強力な生成手法を提案する。
論文 参考訳(メタデータ) (2025-04-10T02:22:23Z) - ClimaQA: An Automated Evaluation Framework for Climate Question Answering Models [38.05357439484919]
気候学者による大学院教科書から質問応答ペアを生成する適応学習フレームワークであるClimaGenを開発した。
気候科学のための大規模で総合的な総合的なQAデータセットであるClimaQA-Silverとともに、専門家による注釈付きベンチマークデータセットであるClimaQA-Goldを提示する。
論文 参考訳(メタデータ) (2024-10-22T05:12:19Z) - Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - ClimateX: Do LLMs Accurately Assess Human Expert Confidence in Climate
Statements? [0.0]
気候ステートメントにおけるエキスパート信頼度(Expert Confidence in Climate Statements, ClimateX)データセットは,8094気候ステートメントからなる,新規でキュレートされた専門家ラベル付きデータセットである。
このデータセットを用いて,近年のLarge Language Models (LLMs) は,気候関連文における人間の専門家の信頼度を分類できることを示す。
全体として、モデルは、低信頼と中自信のステートメントに一貫性があり、重要な自信を示します。
論文 参考訳(メタデータ) (2023-11-28T10:26:57Z) - Federated Prompt Learning for Weather Foundation Models on Devices [37.88417074427373]
天気予報のためのデバイス上のインテリジェンスでは、ローカルなディープラーニングモデルを使用して、集中型クラウドコンピューティングなしで気象パターンを分析する。
本稿では,FedPoD(Federated Prompt Learning for Weather Foundation Models on Devices)を提案する。
FedPoDは、通信効率を維持しながら、高度にカスタマイズされたモデルを得ることができる。
論文 参考訳(メタデータ) (2023-05-23T16:59:20Z) - Towards Answering Climate Questionnaires from Unstructured Climate
Reports [26.036105166376284]
活動家や政策立案者は、巨大で急速に成長する非構造的気候レポートを構造化形式に処理するためにNLPツールを必要としている。
2つの大規模気候調査データセットを導入し、既存の構造を用いて自己教師型モデルを訓練する。
次に、これらのモデルを用いて、人間のパイロット実験において、構造化されていない気候文書からのテキストと半構造化されたアンケートとの整合を支援する。
論文 参考訳(メタデータ) (2023-01-11T00:22:56Z) - Analyzing Sustainability Reports Using Natural Language Processing [68.8204255655161]
近年、企業は環境への影響を緩和し、気候変動の状況に適応することを目指している。
これは、環境・社会・ガバナンス(ESG)の傘下にある様々な種類の気候リスクと暴露を網羅する、ますます徹底した報告を通じて報告されている。
本稿では,本稿で開発したツールと方法論について紹介する。
論文 参考訳(メタデータ) (2020-11-03T21:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。