論文の概要: Generative AI Uses and Risks for Knowledge Workers in a Science Organization
- arxiv url: http://arxiv.org/abs/2501.16577v1
- Date: Mon, 27 Jan 2025 23:41:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:40:49.547017
- Title: Generative AI Uses and Risks for Knowledge Workers in a Science Organization
- Title(参考訳): 科学組織における知識労働者のジェネレーティブAI利用とリスク
- Authors: Kelly B. Wagman, Matthew T. Dearing, Marshini Chetty,
- Abstract要約: 生成AIは、科学組織における知識労働者を支援することによって科学的発見を促進することができる。
我々は、Science and Operationsにまたがる米国国立研究所で、生成型AIツールの使用に関する調査を報告した。
その結果,(1)Argoの利用データは少なからぬが,Science and Operationsの従業員による利用の増加,(2)コピロや(3)ワークフローエージェントのモダリティ,(4)センシティブなデータセキュリティ,学術出版,仕事への影響などの4点が明らかになった。
- 参考スコア(独自算出の注目度): 4.035007094168652
- License:
- Abstract: Generative AI could enhance scientific discovery by supporting knowledge workers in science organizations. However, the real-world applications and perceived concerns of generative AI use in these organizations are uncertain. In this paper, we report on a collaborative study with a US national laboratory with employees spanning Science and Operations about their use of generative AI tools. We surveyed 66 employees, interviewed a subset (N=22), and measured early adoption of an internal generative AI interface called Argo lab-wide. We have four findings: (1) Argo usage data shows small but increasing use by Science and Operations employees; Common current and envisioned use cases for generative AI in this context conceptually fall into either a (2) copilot or (3) workflow agent modality; and (4) Concerns include sensitive data security, academic publishing, and job impacts. Based on our findings, we make recommendations for generative AI use in science and other organizations.
- Abstract(参考訳): 生成AIは、科学組織における知識労働者を支援することによって科学的発見を促進することができる。
しかし、これらの組織における実世界の応用と生成的AI利用に対する懸念は不確実である。
本稿では,Science and Operationsにまたがる米国国立研究所と共同研究を行い,生成型AIツールの利用について報告する。
我々は66名の従業員を調査し、サブセット(N=22)をインタビューし、Argo lab-wideと呼ばれる内部生成AIインターフェースの早期導入を測定した。
その結果,(1)Argoの利用データは少なからぬが,Science and Operationsの従業員による利用の増加,(2)コピロや(3)ワークフローエージェントのモダリティ,(4)センシティブなデータセキュリティ,学術出版,仕事への影響などの4点が明らかになった。
この結果に基づき、我々は、科学やその他の組織における生成AIの利用を推奨する。
関連論文リスト
- Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation [58.064940977804596]
多くの新しいAIモデルとツールが提案され、世界中の研究者や学者が研究をより効果的かつ効率的に実施できるようにすることを約束している。
これらのツールの欠点と誤用の可能性に関する倫理的懸念は、議論の中で特に顕著な位置を占める。
論文 参考訳(メタデータ) (2025-02-07T18:26:45Z) - Generative artificial intelligence usage by researchers at work: Effects of gender, career stage, type of workplace, and perceived barriers [0.0]
近年, 次世代人工知能技術の研究環境への統合が盛んに行われている。
本稿では,プロの環境における研究者間の生成AIの利用頻度の要因を探究する。
論文 参考訳(メタデータ) (2024-08-31T22:00:21Z) - Measuring Human Contribution in AI-Assisted Content Generation [66.06040950325969]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - "It is there, and you need it, so why do you not use it?" Achieving better adoption of AI systems by domain experts, in the case study of natural science research [3.2898657562398386]
人工知能(AI)は、医学や自然科学研究などの分野で普及しつつある。
しかし、実際にAIシステムが実装されている場合、ドメインの専門家はそれを拒否することが多い。
自然科学研究において、科学者によるAI対応システムの非効果的な使用は、データを分析して研究を進めるのを妨げる可能性がある。
論文 参考訳(メタデータ) (2024-03-25T16:06:31Z) - AI for social science and social science of AI: A Survey [47.5235291525383]
人工知能の最近の進歩は、人工知能の可能性を再考するきっかけとなった。
AIの人間的能力の増大は、社会科学研究にも注目されている。
論文 参考訳(メタデータ) (2024-01-22T10:57:09Z) - Drivers and Barriers of AI Adoption and Use in Scientific Research [0.0]
我々は、科学者の人的資本と、協力者や機関のネットワークで利用可能な外部リソースに焦点をあて、科学研究におけるAIの統合について研究する。
我々の結果は、AIは探索の趣味を持つドメイン科学者によって開拓され、コンピュータ科学者、経験豊富なAI科学者、そして初期のキャリア研究者のネットワークに埋め込まれていることを示唆している。
論文 参考訳(メタデータ) (2023-12-15T14:49:13Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - AI for Open Science: A Multi-Agent Perspective for Ethically Translating
Data to Knowledge [4.055489363682199]
我々は,AI4Scienceのマルチエージェント拡張として,AI for Open Science(AI4OS)の概念を紹介した。
私たちのゴールは、AI4Science(例えば、自動運転ラボ)の自然な結果が、開発者だけでなく、社会全体の利益であることを保証することです。
論文 参考訳(メタデータ) (2023-10-28T23:57:15Z) - AI Usage Cards: Responsibly Reporting AI-generated Content [25.848910414962337]
ChatGPTのようなAIシステムが、人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
我々は、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案する。
第2に、科学研究におけるAIの使用を報告するための標準化された方法である「AI Usage Cards」を紹介する。
論文 参考訳(メタデータ) (2023-02-16T08:41:31Z) - Learning from learning machines: a new generation of AI technology to
meet the needs of science [59.261050918992325]
科学的な発見のためのAIの有用性を高めるための新たな機会と課題を概説する。
産業におけるAIの目標と科学におけるAIの目標の区別は、データ内のパターンを識別することと、データから世界のパターンを発見することとの間に緊張を生じさせる。
論文 参考訳(メタデータ) (2021-11-27T00:55:21Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。