論文の概要: Authority Signals in AI Cited Health Sources: A Framework for Evaluating Source Credibility in ChatGPT Responses
- arxiv url: http://arxiv.org/abs/2601.17109v1
- Date: Fri, 23 Jan 2026 17:44:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.234076
- Title: Authority Signals in AI Cited Health Sources: A Framework for Evaluating Source Credibility in ChatGPT Responses
- Title(参考訳): AI Cited Health Sourcesのオーソリティシグナル: ChatGPTレスポンスのソースの信頼性を評価するフレームワーク
- Authors: Erin Jacques, Erela Datuowei, Vincent Jones, Corey Basch, Celeta Vanderpool, Nkechi Udeozo, Griselda Chapa,
- Abstract要約: この調査は、Google Researchが収集した3,173の消費者健康質問を含むHealthSearchQAから、ランダムに100の質問を選択した。
これらの質問はChatGPT 5.2 Proに入力され、オーソリティ・シグナル・フレームワークの4つのドメインのレンズを通して引用されたソースを記録し、コーディングした。
ChatGPTの健康に起因した回答の75%以上は、メイヨー・クリニック、クリーブランド・クリニック、ウィキペディア、ナショナル・ヘルス・サービスなど、確立された機関からのものだった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Health information seeking has fundamentally changed since the onset of Large Language Models (LLM), with nearly one third of ChatGPT's 800 million users asking health questions weekly. Understanding the sources of those AI generated responses is vital, as health organizations and providers are also investing in digital strategies to organically improve their ranking, reach and visibility in LLM systems like ChatGPT. As AI search optimization strategies are gaining maturity, this study introduces an Authority Signals Framework, organized in four domains that reflect key components to health information seeking, starting with "Who wrote it?" (Author Credentials), followed by "Who published it?" (Institutional Affiliation), "How was it vetted?" (Quality Assurance), and "How does AI find it?" (Digital Authority). This descriptive cross-sectional study randomly selected 100 questions from HealthSearchQA which contains 3,173 consumer health questions curated by Google Research from publicly available search engine suggestions. Those questions were entered into ChatGPT 5.2 Pro to record and code the cited sources through the lens of the Authority Signals Framework's four domains. Descriptive statistics were calculated for all cited sources (n=615), and cross tabulations were conducted to examine distinction among organization types. Over 75% of the sources cited in ChatGPT's health generated responses were from established institutional sources, such as Mayo Clinic, Cleveland Clinic, Wikipedia, National Health Service, PubMed with the remaining citations sourced from alternative health information sources that lacked established institutional backing.
- Abstract(参考訳): 健康情報検索はLarge Language Models(LLM)の開始以来根本的に変化しており、ChatGPTの8億人のユーザーの3分の1近くが毎週健康に関する質問をしている。
医療機関やプロバイダーは、ChatGPTのようなLLMシステムにおけるランキング、リーチ、可視性を改善するためのデジタル戦略にも投資している。
AI検索最適化戦略が成熟するにつれて、この研究は、"Who wrote it?"(認証資格)から始まる4つのドメインで編成されたオーソリティシグナルフレームワークを導入し、続いて"Who published it?"(機関認証)、"How was it vetted?"(品質保証)、"How does AI find it?"(デジタル権限)をフォローした。
この説明的横断的研究は、HealthSearchQAから100の質問をランダムに選択した。
これらの質問はChatGPT 5.2 Proに入力され、オーソリティ・シグナル・フレームワークの4つのドメインのレンズを通して引用されたソースを記録し、コーディングした。
引用されたすべての資料について記述統計を算出し(n=615)、組織型の違いを調べるために横断集計を行った。
ChatGPTの健康に起因した回答の75%以上は、マヨ・クリニック、クリーブランド・クリニック、ウィキペディア、国民健康サービス、PubMedなど、確立された機関の支援を欠いた代替医療情報ソースからの引用である。
関連論文リスト
- Assessing Web Search Credibility and Response Groundedness in Chat Assistants [4.0127354590894955]
本稿では,アシスタントのWeb検索行動を評価するための新しい手法を提案する。
GPT-4o, GPT-5, Perplexity, Qwen Chatの5項目を100件のクレームで評価した。
論文 参考訳(メタデータ) (2025-10-15T16:55:47Z) - Retrieval-augmented systems can be dangerous medical communicators [21.371504193281226]
患者は長年、健康に関する情報をオンラインで求めてきた。
検索強化生成と引用接地は、幻覚を減らし、AI生成応答の精度を向上させる方法として広く推進されている。
本論文は,資料から引き出された文字通り正確な内容が幻覚に反する場合でも,誤解を招く可能性があることを論じる。
論文 参考訳(メタデータ) (2025-02-18T01:57:02Z) - AI Insights: A Case Study on Utilizing ChatGPT Intelligence for Research
Paper Analysis [0.0]
この研究は、研究トピックとして、乳癌治療における人工知能のテキスト応用を選択した。
このトピックに関する研究論文は、Google Scholar、Pubmed、Scopusの3つの主要な出版データベースから収集された。
チャットGPTモデルを用いて,研究論文のカテゴリ,スコープ,関連情報を同定した。
論文 参考訳(メタデータ) (2024-03-05T19:47:57Z) - PubTator 3.0: an AI-powered Literature Resource for Unlocking Biomedical
Knowledge [7.483612362757038]
PubTator 3.0は、最先端のAI技術を使用して意味と関係を検索するバイオメディカル文献リソースである。
現在、約3600万のPubMed抽象化と600万のフルテキスト記事に対して、10億以上のエンティティとリレーショナルアノテーションを提供している。
PubTator 3.0では、PubMedやGoogle Scholarよりも多くの記事が検索され、上位20項目の精度が高いことが示されています。
論文 参考訳(メタデータ) (2024-01-19T22:24:39Z) - A Review on Knowledge Graphs for Healthcare: Resources, Applications, and Promises [59.4999994297993]
この総合的なレビューは、医療知識グラフ(HKG)の現状の概要を提供することを目的としている。
我々は,既存のHKGに関する文献を網羅的に分析し,その構築方法,活用技術,応用について考察した。
このレビューは、HKGsが生物医学研究や臨床実践に大きな影響を与える可能性を強調している。
論文 参考訳(メタデータ) (2023-06-07T21:51:56Z) - Large Language Models Leverage External Knowledge to Extend Clinical
Insight Beyond Language Boundaries [48.48630043740588]
ChatGPTやMed-PaLMのような大規模言語モデル(LLM)は、様々な質問応答タスクに優れています。
我々は,その性能を高めるために,新しい文脈内学習フレームワークを開発した。
論文 参考訳(メタデータ) (2023-05-17T12:31:26Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。