論文の概要: Social Scientists on the Role of AI in Research
- arxiv url: http://arxiv.org/abs/2506.11255v1
- Date: Thu, 12 Jun 2025 19:55:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.567343
- Title: Social Scientists on the Role of AI in Research
- Title(参考訳): 社会科学者による研究におけるAIの役割
- Authors: Tatiana Chakravorti, Xinyu Wang, Pranav Narayanan Venkit, Sai Koneru, Kevin Munger, Sarah Rajtmajer,
- Abstract要約: 本研究では,284件のアンケート結果と15件の社会科学者への半構造化インタビューについて,地域中心の調査結果を提示する。
我々は、ジェネレーティブAI(genAI)の普及に伴い、研究環境におけるAIの利用が社会科学者の間で著しく増加していることを発見した。
特に、自動化バイアス、デマシリング、研究の不正行為、複雑な解釈可能性、表現的害に関する倫理的懸念は、genAIに関連して提起される。
- 参考スコア(独自算出の注目度): 2.2665233748698355
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The integration of artificial intelligence (AI) into social science research practices raises significant technological, methodological, and ethical issues. We present a community-centric study drawing on 284 survey responses and 15 semi-structured interviews with social scientists, describing their familiarity with, perceptions of the usefulness of, and ethical concerns about the use of AI in their field. A crucial innovation in study design is to split our survey sample in half, providing the same questions to each -- but randomizing whether participants were asked about "AI" or "Machine Learning" (ML). We find that the use of AI in research settings has increased significantly among social scientists in step with the widespread popularity of generative AI (genAI). These tools have been used for a range of tasks, from summarizing literature reviews to drafting research papers. Some respondents used these tools out of curiosity but were dissatisfied with the results, while others have now integrated them into their typical workflows. Participants, however, also reported concerns with the use of AI in research contexts. This is a departure from more traditional ML algorithms which they view as statistically grounded. Participants express greater trust in ML, citing its relative transparency compared to black-box genAI systems. Ethical concerns, particularly around automation bias, deskilling, research misconduct, complex interpretability, and representational harm, are raised in relation to genAI. To guide this transition, we offer recommendations for AI developers, researchers, educators, and policymakers focusing on explainability, transparency, ethical safeguards, sustainability, and the integration of lived experiences into AI design and evaluation processes.
- Abstract(参考訳): 人工知能(AI)の社会科学研究実践への統合は、重要な技術的、方法論的、倫理的問題を提起する。
本稿では,社会科学者に対する調査回答284件と半構造化インタビュー15件について,コミュニティ中心の調査結果を提示する。
リサーチデザインにおける重要なイノベーションは、調査サンプルを半分に分割して、それぞれに同じ質問をすることです。
我々は、ジェネレーティブAI(genAI)の普及に伴い、研究環境におけるAIの利用が社会科学者の間で著しく増加していることを発見した。
これらのツールは、文献レビューの要約から研究論文の起草まで、様々なタスクに使われてきた。
一部の回答者は好奇心からこれらのツールを使ったが、結果に満足しなかった。
しかし参加者は、研究状況におけるAIの使用に関する懸念も報告している。
これは、統計的に根拠づけられた、より伝統的なMLアルゴリズムから逸脱している。
参加者は、ブラックボックスのgenAIシステムと比較して比較的透明性が高いことを理由に、MLに対する信頼を表明している。
特に、自動化バイアス、デマシリング、研究の不正行為、複雑な解釈可能性、表現的害に関する倫理的懸念は、genAIに関連して提起される。
この移行を導くため、私たちは、説明可能性、透明性、倫理的保護、持続可能性、AI設計と評価プロセスへの生きた経験の統合に焦点を当てた、AI開発者、研究者、教育者、政策立案者に推奨します。
関連論文リスト
- Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - Navigating Ethical Challenges in Generative AI-Enhanced Research: The ETHICAL Framework for Responsible Generative AI Use [0.0]
生成人工知能(GenAI)の急速な普及は、機会と倫理的課題の両方を提示する。
本稿では、研究におけるGenAIの責任を負うための実践的ガイドであるETHICALフレームワークを開発する。
論文 参考訳(メタデータ) (2024-12-11T05:49:11Z) - AI-Tutoring in Software Engineering Education [0.7631288333466648]
我々は,GPT-3.5-TurboモデルをAI-TutorとしてAPASアルテミスに組み込むことで,探索的なケーススタディを行った。
この発見は、タイムリーなフィードバックやスケーラビリティといった利点を浮き彫りにしている。
しかし,AI-Tutor を用いた場合,一般的な応答や学習進行抑制に対する学生の懸念も明らかであった。
論文 参考訳(メタデータ) (2024-04-03T08:15:08Z) - AI for social science and social science of AI: A Survey [47.5235291525383]
人工知能の最近の進歩は、人工知能の可能性を再考するきっかけとなった。
AIの人間的能力の増大は、社会科学研究にも注目されている。
論文 参考訳(メタデータ) (2024-01-22T10:57:09Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - The ethical ambiguity of AI data enrichment: Measuring gaps in research
ethics norms and practices [2.28438857884398]
この研究は、AI研究とデータ豊か化のために、同等な研究倫理要件と規範がどのように開発されたか、そしてどの程度まで調査する。
主要なAI会場は、人間のデータ収集のためのプロトコルを確立し始めているが、これらは矛盾なく著者が追従している。
論文 参考訳(メタデータ) (2023-06-01T16:12:55Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。