論文の概要: Agentic AI for Improving Precision in Identifying Contributions to Sustainable Development Goals
- arxiv url: http://arxiv.org/abs/2411.17598v1
- Date: Tue, 26 Nov 2024 17:06:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:36:13.224032
- Title: Agentic AI for Improving Precision in Identifying Contributions to Sustainable Development Goals
- Title(参考訳): 持続可能な開発目標への貢献の特定における精度向上のためのエージェントAI
- Authors: William A. Ingram, Bipasha Banerjee, Edward A. Fox,
- Abstract要約: 本研究では,学術出版物における国連の目標(UN)への関連する学術的貢献を特定するために,自己回帰型大規模言語モデル(LLM)を評価エージェントとして活用することを検討した。
ローカルにホストされた小さなLCMは、SDGターゲットに対する意味的に関連するコントリビューションを、従来のメソッドの制限に対処して、因果的キーワードマッチングによって検索された文書と区別できることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As research institutions increasingly commit to supporting the United Nations' Sustainable Development Goals (SDGs), there is a pressing need to accurately assess their research output against these goals. Current approaches, primarily reliant on keyword-based Boolean search queries, conflate incidental keyword matches with genuine contributions, reducing retrieval precision and complicating benchmarking efforts. This study investigates the application of autoregressive Large Language Models (LLMs) as evaluation agents to identify relevant scholarly contributions to SDG targets in scholarly publications. Using a dataset of academic abstracts retrieved via SDG-specific keyword queries, we demonstrate that small, locally-hosted LLMs can differentiate semantically relevant contributions to SDG targets from documents retrieved due to incidental keyword matches, addressing the limitations of traditional methods. By leveraging the contextual understanding of LLMs, this approach provides a scalable framework for improving SDG-related research metrics and informing institutional reporting.
- Abstract(参考訳): 研究機関は、国連の持続可能な開発目標(SDG)を支援することをますます約束しているため、これらの目標に対して研究成果を正確に評価する必要がある。
現在のアプローチは、主にキーワードベースのBoolean検索クエリに依存し、インシデントキーワードマッチを真のコントリビューションと説明し、検索精度を低減し、ベンチマーク作業を複雑化する。
本研究では,学術出版物におけるSDG目標への関連する学術的貢献を特定するために,自己回帰型大規模言語モデル(LLM)を評価エージェントとして活用することを検討した。
SDG固有のキーワードクエリによって検索された学術的要約のデータセットを用いて、ローカルにホストされたLLMは、SDGのターゲットに対する意味的に関連するコントリビューションを、因果的キーワードマッチングによって検索された文書と区別し、従来のメソッドの制限に対処できることを実証する。
LLMの文脈的理解を活用することで、SDG関連の研究指標を改善し、機関報告を行うためのスケーラブルなフレームワークを提供する。
関連論文リスト
- Harmonizing Metadata of Language Resources for Enhanced Querying and Accessibility [0.0]
本稿では,言語資源の多種多様なリポジトリ(LR)からのメタデータの調和について述べる。
我々の手法は,新たに開発されたポータルであるLinghubを通じて,テキストベースの検索,ファステッドブラウジング,高度なSPARQLクエリをサポートする。
この研究は、メタデータの調和を高めるために、重要なメタデータの問題とオープンな語彙と標準に固執することを提唱する。
論文 参考訳(メタデータ) (2025-01-09T22:48:43Z) - A Comprehensive Survey of Retrieval-Augmented Generation (RAG): Evolution, Current Landscape and Future Directions [0.0]
RAGは、検索機構と生成言語モデルを組み合わせることで、出力の精度を高める。
近年の研究では, 検索効率向上のための新しい手法が注目されている。
RAGモデルの堅牢性向上に焦点をあてた今後の研究方向性が提案されている。
論文 参考訳(メタデータ) (2024-10-03T22:29:47Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
RAGは大規模言語モデル(LLM)を強化するために広く採用されている。
分散テキスト生成(ATG)が注目され、RAGにおけるモデルの応答をサポートするための引用を提供する。
本稿では,ReClaim(Refer & Claim)と呼ばれる詳細なATG手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - DiscoveryBench: Towards Data-Driven Discovery with Large Language Models [50.36636396660163]
我々は、データ駆動探索の多段階プロセスを形式化する最初の包括的なベンチマークであるDiscoveryBenchを紹介する。
我々のベンチマークには、社会学や工学などの6つの分野にまたがる264のタスクが含まれている。
私たちのベンチマークでは、自律的なデータ駆動型発見の課題を説明し、コミュニティが前進するための貴重なリソースとして役立ちます。
論文 参考訳(メタデータ) (2024-07-01T18:58:22Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - ResearchArena: Benchmarking Large Language Models' Ability to Collect and Organize Information as Research Agents [21.17856299966841]
本研究では,学術調査における大規模言語モデル(LLM)の評価のためのベンチマークであるResearchArenaを紹介する。
これらの機会を養うため、12万のフルテキスト学術論文と7.9Kのサーベイ論文の環境を構築した。
論文 参考訳(メタデータ) (2024-06-13T03:26:30Z) - A Survey on Retrieval-Augmented Text Generation for Large Language Models [1.4579344926652844]
Retrieval-Augmented Generation (RAG)は、検索手法とディープラーニングの進歩を融合する。
本稿では,RAGパラダイムを検索前,検索後,検索後,生成の4つのカテゴリに分類する。
RAGの進化を概説し、重要な研究の分析を通して分野の進歩について論じている。
論文 参考訳(メタデータ) (2024-04-17T01:27:42Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z) - Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z) - Interpretable Research Replication Prediction via Variational Contextual
Consistency Sentence Masking [14.50690911709558]
研究レプリケーション予測(Research Replication Prediction、RRP)は、公表された研究結果が複製可能かどうかを予測するタスクである。
本研究では,キー文を自動的に抽出するVCCSM法を提案する。
欧州人権条約 (ECHR) のデータセットとともに, RRP に関する実験の結果, VCCSM は長い文書分類作業において, モデル解釈可能性を向上させることができることを示した。
論文 参考訳(メタデータ) (2022-03-28T03:27:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。