論文の概要: Auditing Google's AI Overviews and Featured Snippets: A Case Study on Baby Care and Pregnancy
- arxiv url: http://arxiv.org/abs/2511.12920v1
- Date: Mon, 17 Nov 2025 03:16:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.631238
- Title: Auditing Google's AI Overviews and Featured Snippets: A Case Study on Baby Care and Pregnancy
- Title(参考訳): GoogleのAI概要と特徴的スニペット:赤ちゃんのケアと妊娠に関するケーススタディ
- Authors: Desheng Hu, Joachim Baumann, Aleksandra Urman, Elsa Lichtenegger, Robin Forsberg, Aniko Hannak, Christo Wilson,
- Abstract要約: Google Search、AI Overviews(AIO)やFeatured Snippets(FS)などの機能を通じてAI生成コンテンツのサーフェスを強化
本稿では, 実際の乳児ケアと妊娠関連クエリの体系的アルゴリズム監査により, これらの情報表示の品質と一貫性を評価する。
その結果, AIO と FS の情報を同一検索結果ページ上に表示した場合, 33% のケースで相互に一致しない情報一貫性の欠如が明らかとなった。
- 参考スコア(独自算出の注目度): 40.70211065225768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Google Search increasingly surfaces AI-generated content through features like AI Overviews (AIO) and Featured Snippets (FS), which users frequently rely on despite having no control over their presentation. Through a systematic algorithm audit of 1,508 real baby care and pregnancy-related queries, we evaluate the quality and consistency of these information displays. Our robust evaluation framework assesses multiple quality dimensions, including answer consistency, relevance, presence of medical safeguards, source categories, and sentiment alignment. Our results reveal concerning gaps in information consistency, with information in AIO and FS displayed on the same search result page being inconsistent with each other in 33% of cases. Despite high relevance scores, both features critically lack medical safeguards (present in just 11% of AIO and 7% of FS responses). While health and wellness websites dominate source categories for both, AIO and FS, FS also often link to commercial sources. These findings have important implications for public health information access and demonstrate the need for stronger quality controls in AI-mediated health information. Our methodology provides a transferable framework for auditing AI systems across high-stakes domains where information quality directly impacts user well-being.
- Abstract(参考訳): Google SearchはAI Overviews(AIO)やFeatured Snippets(FS)などの機能を通じて、AI生成コンテンツをサーフェスする。
1,508件の乳児ケアと妊娠関連クエリの体系的アルゴリズム監査により,これらの情報表示の品質と一貫性を評価する。
我々の堅牢な評価フレームワークは、回答の整合性、関連性、医療安全ガードの存在、ソースカテゴリ、感情アライメントなど、複数の品質次元を評価します。
その結果, AIO と FS の情報を同一検索結果ページ上に表示した場合, 33% のケースで相互に一致しない情報一貫性の欠如が明らかとなった。
関連性が高いにもかかわらず、どちらも医療的保護が欠如している(現在、AIOの11%、FSの7%)。
健康と健康のWebサイトがAIOとFSの両方のソースカテゴリを支配しているのに対して、FSはしばしば商用ソースにリンクしている。
これらの知見は、公衆衛生情報へのアクセスに重要な意味を持ち、AIによる健康情報のより強力な品質管理の必要性を示している。
当社の手法は,情報品質がユーザの幸福に直接影響を及ぼすハイテイク領域における,AIシステムの監査を行うための伝達可能なフレームワークを提供する。
関連論文リスト
- OIDA-QA: A Multimodal Benchmark for Analyzing the Opioid Industry Documents Archive [50.468138755368805]
オピオイド危機は公衆衛生にとって重要な瞬間である。
UCSF-JHU Opioid Industry Documents Archive(OIDA)に公開されているデータと文書
本稿では,文書属性に応じて元のデータセットを整理することで,この問題に対処する。
論文 参考訳(メタデータ) (2025-11-13T03:27:32Z) - Trustworthy Medical Question Answering: An Evaluation-Centric Survey [40.76054471378203]
医療質問応答システムにおける信頼性の6つの重要な側面を体系的に検討した。
モデル改善を促進する評価誘導手法を解析する。
我々は, LLM を用いた医療用QAの安全性, 信頼性, 透明性の確保に向けた今後の研究方針を提案する。
論文 参考訳(メタデータ) (2025-06-04T07:48:10Z) - Elevating Information System Performance: A Deep Dive into Quality Metrics [0.43533652831655184]
本研究では、システム品質(SQ)、情報品質(IQ)、サービス品質(SerQ)の関係について検討する。
その結果,SQが高いとIQが向上し,SerQが向上し,ユーザ満足度が向上することが示された。
SerQは、システム全体のパフォーマンスを示す最も関連性の高い指標として現れます。
論文 参考訳(メタデータ) (2024-12-24T15:50:57Z) - A Survey of Artificial Intelligence in Gait-Based Neurodegenerative Disease Diagnosis [51.07114445705692]
神経変性疾患(神経変性疾患、ND)は、伝統的に医学的診断とモニタリングのために広範囲の医療資源と人的努力を必要とする。
重要な疾患関連運動症状として、ヒトの歩行を利用して異なるNDを特徴づけることができる。
人工知能(AI)モデルの現在の進歩は、NDの識別と分類のための自動歩行分析を可能にする。
論文 参考訳(メタデータ) (2024-05-21T06:44:40Z) - AIGIQA-20K: A Large Database for AI-Generated Image Quality Assessment [54.93996119324928]
AIGIQA-20Kとして知られる2万のAIGIと420,000の主観評価を備えた、これまでで最大のAIGI主観的品質データベースを作成します。
このデータベース上でベンチマーク実験を行い、16の主流AIGI品質モデルと人間の知覚との対応性を評価する。
論文 参考訳(メタデータ) (2024-04-04T12:12:24Z) - Can I trust my fake data -- A comprehensive quality assessment framework
for synthetic tabular data in healthcare [33.855237079128955]
プライバシー上の懸念と規制上の要求に応えて、合成データの使用が提案されている。
医療におけるAI応用のためのSDの品質保証のための概念的枠組みを提案する。
現実のアプリケーションをサポートするために必要なステージを提案する。
論文 参考訳(メタデータ) (2024-01-24T08:14:20Z) - Towards FATE in AI for Social Media and Healthcare: A Systematic Review [0.0]
この調査は、AIの文脈における公正性、説明責任、透明性、倫理(FATE)の概念に焦点を当てている。
統計的および交差点的公正性は,ソーシャルメディアプラットフォーム上での医療の公平性を支持することが判明した。
シミュレーション、データ分析、自動システムといったソリューションは広く使われているが、その効果は様々である。
論文 参考訳(メタデータ) (2023-06-05T17:25:42Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。