論文の概要: Accuracy of training data and model outputs in Generative AI: CREATe Response to the Information Commissioner Office Consultation
- arxiv url: http://arxiv.org/abs/2407.13072v1
- Date: Thu, 30 May 2024 10:34:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 08:07:30.775676
- Title: Accuracy of training data and model outputs in Generative AI: CREATe Response to the Information Commissioner Office Consultation
- Title(参考訳): ジェネレーティブAIにおけるトレーニングデータとモデル出力の正確性:情報コミッショナー事務所コンサルテーションへの対応
- Authors: Zihao Li, Weiwei Yi, Jiahong Chen,
- Abstract要約: CREATeは、生成AIの正確性に関する証拠を求めるICOの呼びかけを歓迎している。
私たちは、データ保護法とAI規制の側面を強調して喜んでいます。
- 参考スコア(独自算出の注目度): 6.699484354380871
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The accuracy of Generative AI is increasingly critical as Large Language Models become more widely adopted. Due to potential flaws in training data and hallucination in outputs, inaccuracy can significantly impact individuals interests by distorting perceptions and leading to decisions based on flawed information. Therefore, ensuring these models accuracy is not only a technical necessity but also a regulatory imperative. ICO call for evidence on the accuracy of Generative AI marks a timely effort in ensuring responsible Generative AI development and use. CREATe, as the Centre for Regulation of the Creative Economy based at the University of Glasgow, has conducted relevant research involving intellectual property, competition, information and technology law. We welcome the ICO call for evidence on the accuracy of Generative AI, and we are happy to highlight aspects of data protection law and AI regulation that we believe should receive attention.
- Abstract(参考訳): 大規模言語モデルがより広く採用されるにつれて、生成AIの正確性はますます重要になっている。
トレーニングデータやアウトプットの幻覚に潜在的な欠陥があるため、不正確さは個人の関心に重大な影響を与える。
したがって、これらのモデルの精度を保証することは技術的な必要だけでなく、規制命令でもある。
ICOは、生成AIの正確性に関する証拠を求めている。
グラスゴー大学に本部を置くクリエイティヴ・エコノミーの規制センターとして、知的財産、競争、情報および技術法に関する関連研究を行っている。
我々は、生成AIの正確性に関する証拠を求めるICOの呼びかけを歓迎し、私たちが注目すべきと信じているデータ保護法とAI規制の側面を強調して喜んでいます。
関連論文リスト
- Generative AI in Health Economics and Outcomes Research: A Taxonomy of Key Definitions and Emerging Applications, an ISPOR Working Group Report [12.204470166456561]
ジェネレーティブAIは、健康経済学と成果研究(HEOR)において大きな可能性を秘めている
生成AIは、HEORに大きな可能性を示し、効率性、生産性を高め、複雑な課題に対する新しいソリューションを提供する。
ファウンデーションモデルは複雑なタスクを自動化する上で有望だが、科学的信頼性、バイアス、解釈可能性、ワークフローの統合には課題が残っている。
論文 参考訳(メタデータ) (2024-10-26T15:42:50Z) - Learning to Generate and Evaluate Fact-checking Explanations with Transformers [10.970249299147866]
XAI(Explainable Artificial Antelligence)の研究
我々は,人間のアクセス可能な説明を生成することによって,意思決定を文脈化し,正当化するトランスフォーマーベースの事実チェックモデルを開発した。
我々は人工知能(AI)による説明と人間の判断を一致させる必要性を強調した。
論文 参考訳(メタデータ) (2024-10-21T06:22:51Z) - The Impact and Opportunities of Generative AI in Fact-Checking [12.845170214324662]
生成AIは、OpenAIのフラッグシップGPTモデルを使用したフォーチュン500企業の90%以上が、ホワイトカラーの専門職を変革する可能性がある。
しかし、そのような技術は、事実情報の検証と報告を行う組織にどのように影響しますか?
我々は6大陸29のファクトチェック組織で働くN=38人を対象に30回のインタビューを行った。
論文 参考訳(メタデータ) (2024-05-24T23:58:01Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - VerifAI: Verified Generative AI [22.14231506649365]
生成AIは大きな進歩を遂げているが、その正確性と信頼性に関する懸念は拡大を続けている。
本稿では,データ管理の観点から生成AIの出力を検証することが,生成AIの新たな課題であることを示す。
私たちのビジョンは、検証可能な生成AIの開発を促進し、より信頼性が高く責任あるAIの利用に貢献することです。
論文 参考訳(メタデータ) (2023-07-06T06:11:51Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Towards Fairness Certification in Artificial Intelligence [31.920661197618195]
我々は,AIフェアネス認証に必要な運用手順を定義するための最初の共同作業を提案する。
我々は、オフィシャルサービスに入る前にAIシステムが満たすべき基準と、公正な判断のためにその機能を監視するのに役立つ適合性評価手順を概観する。
論文 参考訳(メタデータ) (2021-06-04T14:12:12Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。