論文の概要: AI for Open Science: A Multi-Agent Perspective for Ethically Translating
Data to Knowledge
- arxiv url: http://arxiv.org/abs/2310.18852v1
- Date: Sat, 28 Oct 2023 23:57:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-10-31 16:06:26.194176
- Title: AI for Open Science: A Multi-Agent Perspective for Ethically Translating
Data to Knowledge
- Title(参考訳): オープンサイエンスのためのai: 倫理的にデータを知識に翻訳するマルチエージェント視点
- Authors: Chase Yakaboski, Gregory Hyde, Clement Nyanhongo and Eugene Santos Jr
- Abstract要約: 我々は,AI4Scienceのマルチエージェント拡張として,AI for Open Science(AI4OS)の概念を紹介した。
私たちのゴールは、AI4Science(例えば、自動運転ラボ)の自然な結果が、開発者だけでなく、社会全体の利益であることを保証することです。
- 参考スコア(独自算出の注目度): 4.055489363682199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI for Science (AI4Science), particularly in the form of self-driving labs,
has the potential to sideline human involvement and hinder scientific discovery
within the broader community. While prior research has focused on ensuring the
responsible deployment of AI applications, enhancing security, and ensuring
interpretability, we also propose that promoting openness in AI4Science
discoveries should be carefully considered. In this paper, we introduce the
concept of AI for Open Science (AI4OS) as a multi-agent extension of AI4Science
with the core principle of maximizing open knowledge translation throughout the
scientific enterprise rather than a single organizational unit. We use the
established principles of Knowledge Discovery and Data Mining (KDD) to
formalize a language around AI4OS. We then discuss three principle stages of
knowledge translation embedded in AI4Science systems and detail specific points
where openness can be applied to yield an AI4OS alternative. Lastly, we
formulate a theoretical metric to assess AI4OS with a supporting ethical
argument highlighting its importance. Our goal is that by drawing attention to
AI4OS we can ensure the natural consequence of AI4Science (e.g., self-driving
labs) is a benefit not only for its developers but for society as a whole.
- Abstract(参考訳): ai for science(ai4science)は、特に自動運転研究所という形で、人間の関与を回避し、より広いコミュニティで科学的発見を妨げる可能性がある。
これまでの研究では、AIアプリケーションの責任あるデプロイの確保、セキュリティの強化、解釈可能性の確保に重点を置いていたが、AI4Science発見のオープン化を促進することも慎重に検討すべきだ、と提案している。
本稿では、オープンサイエンスのためのai(ai4os)の概念を、単一の組織単位ではなく、科学企業全体でオープンナレッジ翻訳を最大化するコア原則として、ai4scienceのマルチエージェント拡張として紹介する。
我々は、知識発見とデータマイニング(KDD)の確立した原則を使用して、AI4OSに関する言語を形式化します。
次に、AI4Scienceシステムに埋め込まれた知識翻訳の3つの基本段階と、AI4OSの代替となるオープン性を適用するための具体的なポイントについて論じる。
最後に、AI4OSを評価するための理論的基準を定式化し、その重要性を強調する倫理的議論を支援する。
私たちの目標は、AI4OSに注意を向けることで、AI4Science(例えば、自動運転ラボ)の自然な結果が、開発者だけでなく、社会全体にとっても利益であることを保証することです。
関連論文リスト
- The AI Scientist-v2: Workshop-Level Automated Scientific Discovery via Agentic Tree Search [16.93028430619359]
AI Scientist-v2は、AIが生成した最初のピアレビュー受け入れワークショップ用紙を生産できるエンドツーエンドのエージェントシステムである。
科学的な仮説を反復的に定式化し、実験を設計し、実行し、データを分析し、視覚化し、科学的な原稿を自律的に作成する。
ある写本は、平均的な人間の受け入れ閾値を超える十分なスコアを達成し、完全なAI生成論文がピアレビューをうまくナビゲートした最初の事例となった。
論文 参考訳(メタデータ) (2025-04-10T18:44:41Z) - Scaling Laws in Scientific Discovery with AI and Robot Scientists [72.3420699173245]
自律的なジェネラリスト科学者(AGS)の概念は、エージェントAIとエンボディロボットを組み合わせて、研究ライフサイクル全体を自動化している。
AGSは科学的発見に必要な時間と資源を大幅に削減することを目指している。
これらの自律的なシステムが研究プロセスにますます統合されるにつれて、科学的な発見が新しいスケーリング法則に従うかもしれないという仮説を立てる。
論文 参考訳(メタデータ) (2025-03-28T14:00:27Z) - SciHorizon: Benchmarking AI-for-Science Readiness from Scientific Data to Large Language Models [36.724471610075696]
SciHorizonは、科学データと大規模言語モデルの両方の観点からAI4Scienceの可読性を評価するために設計された総合的なアセスメントフレームワークである。
まず、品質、FAIRネス、説明可能性、コンプライアンスの4つの重要な側面を含む、AI対応の科学データを評価するための一般化可能なフレームワークを紹介します。
複数の科学分野にまたがるLCMの能力を評価するために,知識,理解,推論,マルチモダリティ,価値の5つのコア指標に基づいて,16のアセスメントを定めている。
論文 参考訳(メタデータ) (2025-03-12T11:34:41Z) - Unlocking the Potential of AI Researchers in Scientific Discovery: What Is Missing? [20.94708392671015]
AI4Scienceの総出版物のシェアは2024年の3.57%から2050年までに約25%になると予想しています。
我々は,AI研究者を科学的発見の最前線に位置づける構造的かつ行動可能な戦略を提案する。
論文 参考訳(メタデータ) (2025-03-05T09:29:05Z) - Generative AI Uses and Risks for Knowledge Workers in a Science Organization [4.035007094168652]
生成AIは、科学組織における知識労働者を支援することによって科学的発見を促進することができる。
我々は、Science and Operationsにまたがる米国国立研究所で、生成型AIツールの使用に関する調査を報告した。
その結果,(1)Argoの利用データは少なからぬが,Science and Operationsの従業員による利用の増加,(2)コピロや(3)ワークフローエージェントのモダリティ,(4)センシティブなデータセキュリティ,学術出版,仕事への影響などの4点が明らかになった。
論文 参考訳(メタデータ) (2025-01-27T23:41:13Z) - Bridging AI and Science: Implications from a Large-Scale Literature Analysis of AI4Science [25.683422870223076]
本稿では,AI4Science文献の大規模解析を行う。
我々は,AI手法と科学的問題の主な相違点を定量的に強調する。
我々は,AIと科学コミュニティの協力を促進する可能性と課題について検討する。
論文 参考訳(メタデータ) (2024-11-27T00:40:51Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Artificial Intelligence for Science in Quantum, Atomistic, and Continuum Systems [268.585904751315]
科学のためのAI(AI4Science)として知られる新しい研究領域
領域は、物理世界(波動関数と電子密度)、原子(分子、タンパク質、物質、相互作用)、マクロ(流体、気候、地下)まで理解することを目的としている。
主要な課題は、物理第一原理、特に対称性を深層学習法によって自然システムで捉える方法である。
論文 参考訳(メタデータ) (2023-07-17T12:14:14Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z) - Confident AI [0.0]
本稿では,人工知能(AI)と機械学習(ML)システムを,モデル予測と報告結果に対するアルゴリズムとユーザ信頼性の両方で設計する手段として,信頼AIを提案する。
Confident AIの4つの基本原則は、反復性、信頼性、十分性、適応性である。
論文 参考訳(メタデータ) (2022-02-12T02:26:46Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Ethical AI for Social Good [0.0]
AI for Social Good(AI4SG)の概念は、情報社会とAIコミュニティの両方で勢いを増している。
本稿では,今後のAI4SGの取り組みに不可欠な倫理的側面に対処することで,その空白を埋める。
論文 参考訳(メタデータ) (2021-07-14T15:16:51Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。