論文の概要: L-PRISMA: An Extension of PRISMA in the Era of Generative Artificial Intelligence (GenAI)
- arxiv url: http://arxiv.org/abs/2603.19236v1
- Date: Tue, 06 Jan 2026 06:08:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-06 02:36:12.761357
- Title: L-PRISMA: An Extension of PRISMA in the Era of Generative Artificial Intelligence (GenAI)
- Title(参考訳): L-PRISMA: 生成人工知能(GenAI)時代のPRISMAの拡張
- Authors: Samar Shailendra, Rajan Kadel, Aakanksha Sharma, Islam Mohammad Tahidul, Urvashi Rahul Saxena,
- Abstract要約: 本研究は、ヒト主導の合成と、GenAIによる統計的事前スクリーニングのステップを統合する。
提案手法は、PRISMAガイドラインを体系的に強化し、GenAIを体系的なレビューに組み込むための責任ある経路を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Preferred Reporting Items for Systematic Reviews and Meta-Analyses (PRISMA) framework provides a rigorous foundation for evidence synthesis, yet the manual processes of data extraction and literature screening remain time-consuming and restrictive. Recent advances in Generative Artificial Intelligence (GenAI), particularly large language models (LLMs), offer opportunities to automate and scale these tasks, thereby improving time and efficiency. However, reproducibility, transparency, and auditability, the core PRISMA principles, are being challenged by the inherent non-determinism of LLMs and the risks of hallucination and bias amplification. To address these limitations, this study integrates human-led synthesis with a GenAI-assisted statistical pre-screening step. Human oversight ensures scientific validity and transparency, while the deterministic nature of the statistical layer enhances reproducibility. The proposed approach systematically enhances PRISMA guidelines, providing a responsible pathway for incorporating GenAI into systematic review workflows.
- Abstract(参考訳): The Preferred Reporting Items for Systematic Reviews and Meta-Analyses (PRISMA) framework provides a rigorous foundation for evidence synthesis, but the manual process of data extract and literature screening still continued time-consuming and restrictive。
ジェネレーティブ・人工知能(GenAI)の最近の進歩、特に大きな言語モデル(LLM)は、これらのタスクを自動化してスケールする機会を提供し、時間と効率を改善する。
しかしながら、再現性、透明性、監査性(PRISMAの原則)は、LLMの固有の非決定性や幻覚やバイアス増幅のリスクによって問題視されている。
これらの制約に対処するため、本研究では、ヒト主導の合成と、GenAIによる統計的事前スクリーニングのステップを統合する。
人間の監視は科学的妥当性と透明性を保証し、統計層の決定論的性質は再現性を高める。
提案手法は、PRISMAガイドラインを体系的に強化し、GenAIを体系的なレビューワークフローに組み込むための責任ある経路を提供する。
関連論文リスト
- SD-RAG: A Prompt-Injection-Resilient Framework for Selective Disclosure in Retrieval-Augmented Generation [3.797867929356259]
Retrieval-Augmented Generation (RAG) は,Large Language Models (LLMs) の生成能力と,大規模データコレクション上の効率的な検索機構によって得られた知識を組み合わせる能力によって,注目されている。
現在、既存のアプローチの大半は、生成モデルに直接機密情報やアクセス制御情報を公開するリスクを見落としている。
本稿では,SD-RAGと呼ばれる新手法を提案する。SD-RAGは,生成プロセス自体からセキュリティとプライバシの制約を分離する。
論文 参考訳(メタデータ) (2026-01-16T11:22:02Z) - The next question after Turing's question: Introducing the Grow-AI test [51.56484100374058]
本研究は,GROW-AIと呼ばれる人工知能評価の枠組みを拡張することを目的としている。
GROW-AIは、チューリングテストの自然な後継者である"Can Machine grow up?
この作品の独創性は、人間の世界から人工知能への「成長」過程の概念的な変換にある。
論文 参考訳(メタデータ) (2025-08-22T10:19:42Z) - Taming Polysemanticity in LLMs: Provable Feature Recovery via Sparse Autoencoders [50.52694757593443]
既存のSAEトレーニングアルゴリズムは厳密な数学的保証を欠いていることが多く、実用的な制限に悩まされている。
まず,特徴の特定可能性という新たな概念を含む特徴回復問題の統計的枠組みを提案する。
本稿では、ニューラルネットワークのバイアスパラメータを適応的に調整し、適切なアクティベーション間隔を確保する手法である「バイアス適応」に基づく新たなSAEトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-16T20:58:05Z) - AI-Driven Automation Can Become the Foundation of Next-Era Science of Science Research [58.944125758758936]
科学科学(Science of Science, SoS)は、科学的発見の基礎となるメカニズムを探求する。
人工知能(AI)の出現は、次世代のSoSに変革の機会をもたらす。
我々は、従来の手法よりもAIの利点を概説し、潜在的な制限について議論し、それらを克服するための経路を提案する。
論文 参考訳(メタデータ) (2025-05-17T15:01:33Z) - Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - X-SHIELD: Regularization for eXplainable Artificial Intelligence [9.658282892513386]
XAIは、その説明可能性を高めながら、モデルパフォーマンスを改善するために使用することができる。
このファミリー内では、説明可能な人工知能の正規化であるXAI-ShiELD(X-SHIELD)を提案する。
この改善は、X-SHIELD正則化の有無とモデルの比較実験によって検証される。
論文 参考訳(メタデータ) (2024-04-03T09:56:38Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。