論文の概要: The Impact and Opportunities of Generative AI in Fact-Checking
- arxiv url: http://arxiv.org/abs/2405.15985v1
- Date: Fri, 24 May 2024 23:58:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 01:39:22.816448
- Title: The Impact and Opportunities of Generative AI in Fact-Checking
- Title(参考訳): Fact-Checkingにおける生成AIの影響と可能性
- Authors: Robert Wolfe, Tanushree Mitra,
- Abstract要約: 生成AIは、OpenAIのフラッグシップGPTモデルを使用したフォーチュン500企業の90%以上が、ホワイトカラーの専門職を変革する可能性がある。
しかし、そのような技術は、事実情報の検証と報告を行う組織にどのように影響しますか?
我々は6大陸29のファクトチェック組織で働くN=38人を対象に30回のインタビューを行った。
- 参考スコア(独自算出の注目度): 12.845170214324662
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative AI appears poised to transform white collar professions, with more than 90% of Fortune 500 companies using OpenAI's flagship GPT models, which have been characterized as "general purpose technologies" capable of effecting epochal changes in the economy. But how will such technologies impact organizations whose job is to verify and report factual information, and to ensure the health of the information ecosystem? To investigate this question, we conducted 30 interviews with N=38 participants working at 29 fact-checking organizations across six continents, asking about how they use generative AI and the opportunities and challenges they see in the technology. We found that uses of generative AI envisioned by fact-checkers differ based on organizational infrastructure, with applications for quality assurance in Editing, for trend analysis in Investigation, and for information literacy in Advocacy. We used the TOE framework to describe participant concerns ranging from the Technological (lack of transparency), to the Organizational (resource constraints), to the Environmental (uncertain and evolving policy). Building on the insights of our participants, we describe value tensions between fact-checking and generative AI, and propose a novel Verification dimension to the design space of generative models for information verification work. Finally, we outline an agenda for fairness, accountability, and transparency research to support the responsible use of generative AI in fact-checking. Throughout, we highlight the importance of human infrastructure and labor in producing verified information in collaboration with AI. We expect that this work will inform not only the scientific literature on fact-checking, but also contribute to understanding of organizational adaptation to a powerful but unreliable new technology.
- Abstract(参考訳): フォーチュン500企業の90%以上がOpenAIのフラッグシップGPTモデルを使用しており、経済の画期的な変化に影響を及ぼす「汎用技術」として特徴付けられている。
しかし、そのような技術は、事実情報を検証し報告し、情報エコシステムの健全性を確保するという仕事を持つ組織にどのように影響しますか?
この問題を調査するため、6大陸29のファクトチェック組織で働くN=38参加者を対象に30回のインタビューを行い、生成AIをどのように利用するのか、テクノロジーで見る機会と課題について質問した。
その結果, ファクトチェッカーが想定する生成AIの利用は, 組織インフラ, 編集における品質保証, 調査における傾向分析, アドボカシーにおける情報リテラシーなどによって異なることがわかった。
我々はTOEフレームワークを用いて、技術(透明性の欠如)から組織(リソース制約)、環境(不確実で進化する政策)まで、関係者の関心事を記述した。
参加者の洞察に基づいて、ファクトチェックと生成AIの間に価値の緊張関係を記述し、情報検証作業のための生成モデルの設計空間に新しい検証ディメンションを提案する。
最後に、ファクトチェックにおける生成AIの責任ある使用を支援するために、公正性、説明責任、透明性研究に関する議題を概説する。
全体として、AIと協調して検証された情報を生成する上で、人間のインフラと労働の重要性を強調します。
この研究は、事実確認に関する科学的文献だけでなく、強力で信頼性の低い新しい技術への組織的適応の理解にも貢献することを期待している。
関連論文リスト
- Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - The Implications of Open Generative Models in Human-Centered Data Science Work: A Case Study with Fact-Checking Organizations [12.845170214324662]
オープンモデルが組織に与える影響に注目し、AIを使って大量の循環的誤報を観察し分析する。
我々は6大陸20のファクトチェック機関で,N=24の専門家を対象にインタビュー調査を行った。
事実チェックを行う組織は、組織的自律性、データプライバシとオーナシップ、アプリケーション固有性、能力透明性のオープンモデルを好む。
論文 参考訳(メタデータ) (2024-08-04T08:41:48Z) - Accuracy of training data and model outputs in Generative AI: CREATe Response to the Information Commissioner Office Consultation [6.699484354380871]
CREATeは、生成AIの正確性に関する証拠を求めるICOの呼びかけを歓迎している。
私たちは、データ保護法とAI規制の側面を強調して喜んでいます。
論文 参考訳(メタデータ) (2024-05-30T10:34:49Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Requirements for Explainability and Acceptance of Artificial
Intelligence in Collaborative Work [0.0]
本稿では,AIの説明可能性と受容の要件について考察する。
その結果,2つの主要なグループが,モデルの内部操作に関する情報を必要とする開発者であることが示唆された。
AIシステムの受容は、システムの機能や性能、プライバシ、倫理的考慮事項に関する情報に依存する。
論文 参考訳(メタデータ) (2023-06-27T11:36:07Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - AI Assurance using Causal Inference: Application to Public Policy [0.0]
ほとんどのAIアプローチは、"ブラックボックス"としてのみ表現することができ、透明性の欠如に悩まされる。
効果的で堅牢なAIシステムを開発するだけでなく、内部プロセスが説明可能で公平であることを確認することも重要です。
論文 参考訳(メタデータ) (2021-12-01T16:03:06Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。