論文の概要: What are AI researchers worried about?
- arxiv url: http://arxiv.org/abs/2603.06223v1
- Date: Fri, 06 Mar 2026 12:34:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.70029
- Title: What are AI researchers worried about?
- Title(参考訳): AI研究者は何が心配なのか?
- Authors: Cian O'Donovan, Sarp Gurakan, Ananya Karanam, Xiaomeng Wu, Jack Stilgoe,
- Abstract要約: 4000人以上のAI研究者による調査は、これまでで最大である。
結果は、AIの害、リスク、機会に対する新しい形の公開対話の可能性を示している。
AI技術とAI研究者は、公開表現が示唆するよりもずっと"普通"のようだ。
- 参考スコア(独自算出の注目度): 1.5549963606717785
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As AI attracts vast investment and attention, there are competing concerns about the technology's opportunities and uncertainties that blend technical and social questions. The public debate, dominated by a few powerful voices, tends to highlight extreme promises and threats. We wanted to know whether public discussions or technology companies' priorities were representative of AI researchers' opinions. Our survey of more than 4,000 AI researchers is, we think, the largest conducted to date. It was designed to understand attitudes to a variety of issues and include some comparisons with public attitudes derived from existing surveys. Most previous surveys of AI researchers have asked them for predictions of passing a technological threshold or the probabilities of some catastrophic event. These surveys mask the uncertainty and diversity that normally characterises scientific research. Our hypothesis was that the opinions of AI researchers would be markedly different from those of members of the public. While there are areas of divergence, particularly in attitudes to the technology's potential benefits, our survey shows some surprising convergence between researchers' and publics' opinions, particularly in the assessment and prioritisation of risk. Responses to an open text question 'What one thing most worries you about AI?' reveal that only 3% of AI researchers prioritise existential risks, despite the prominence given to these risks in media and policy. AI technologies and AI researchers seem to be much more 'normal' than public representations suggest. Our survey results suggest the possibility for new forms of public dialogue on AI's harms, risks and opportunities. Rather than speculating on future potential risks, policymakers and AI researchers should collaborate on understanding and mitigating the range of sociotechnical risks that are already of clear public concern.
- Abstract(参考訳): AIは膨大な投資と注意を惹きつけるため、技術的な問題と社会的な疑問を混ぜる技術の可能性や不確実性については、競合する懸念がある。
公的な議論は、いくつかの強力な声に支配され、極端な約束と脅威を強調する傾向にある。
私たちは、公開討論やテクノロジー企業の優先順位がAI研究者の意見を代表しているかどうかを知りたかったのです。
4000人以上のAI研究者を対象に行った調査は、これまでで最大のものだと考えています。
様々な問題に対する態度を理解し、既存の調査から得られた公衆の態度との比較を含むように設計されている。
これまでのAI研究者による調査では、技術的しきい値の通過や破滅的な出来事の確率の予測が求められていた。
これらの調査は、通常科学研究の特徴となる不確実性と多様性を隠蔽している。
我々の仮説では、AI研究者の意見は、一般市民の意見と著しく異なるだろうというものだった。
様々な分野、特にテクノロジーの潜在的な利益に対する態度は異なるが、我々の調査は、研究者と公衆の意見、特にリスク評価と優先順位付けにおいて、驚くほどの収束を示している。
オープンテキストの質問に対する回答は、メディアや政策におけるこれらのリスクに顕著な影響があるにもかかわらず、AI研究者のわずか3%が実在するリスクを優先していることを示している。
AI技術とAI研究者は、公開表現が示唆するよりもずっと"普通"のようだ。
我々の調査結果は、AIの害、リスク、機会に関する新しい形の公開対話の可能性を示している。
将来の潜在的なリスクを推測するよりも、政策立案者やAI研究者は、すでに公衆の懸念を抱いている社会技術的リスクの理解と緩和に協力する必要がある。
関連論文リスト
- "We are not Future-ready": Understanding AI Privacy Risks and Existing Mitigation Strategies from the Perspective of AI Developers in Europe [56.1653658714305]
ヨーロッパを拠点とする25人のAI開発者を対象にインタビューを行い、ユーザ、開発者、ビジネスに最もリスクをもたらすと彼らが信じているプライバシの脅威を理解しました。
プライバシリスクの相対的なランク付けに関して、AI開発者の間ではほとんど合意が得られていないことが分かっています。
AI開発者はこれらのリスクに対処するために提案された緩和戦略を認識しているが、彼らは最小限の現実的採用を報告した。
論文 参考訳(メタデータ) (2025-10-01T13:51:33Z) - Perception Gaps in Risk, Benefit, and Value Between Experts and Public Challenge Socially Accepted AI [0.0]
本研究は,一般のAI専門家がAIの能力と影響をどう認識するかを検討する。
シナリオは、持続可能性、医療、仕事のパフォーマンス、社会的不平等、芸術、戦争といった領域にまたがる。
専門家は、常に高い確率を予測し、リスクを知覚し、より多くの利益を報告し、非専門家よりもAIに対する肯定的な感情を表現する。
論文 参考訳(メタデータ) (2024-12-02T12:51:45Z) - Public Perception of AI: Sentiment and Opportunity [0.0]
我々は、世界中の4大陸10カ国で1万人の回答者を対象に行われた調査から、AIに対する大衆の認識の結果を提示する。
その結果、現在AIが世界を変えると信じている回答者の同じ割合が、私たちが知っているように、AIを厳しく規制する必要があると信じていることがわかった。
論文 参考訳(メタデータ) (2024-07-22T19:11:28Z) - The Narrow Depth and Breadth of Corporate Responsible AI Research [3.364518262921329]
私たちは、AI企業の大多数が、この重要なAIのサブフィールドにおいて、限られた、あるいは全く関与していないことを示している。
主要なAI企業は、従来のAI研究に比べて、責任あるAI研究のアウトプットが著しく低い。
当社の結果は、業界が責任あるAI研究を公然と行う必要性を浮き彫りにしたものだ。
論文 参考訳(メタデータ) (2024-05-20T17:26:43Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - A narrowing of AI research? [0.0]
学術と民間におけるAI研究のテーマ的多様性の進化について研究する。
我々は、AI研究における民間企業の影響力を、彼らが受け取った引用と他の機関とのコラボレーションを通じて測定する。
論文 参考訳(メタデータ) (2020-09-22T08:23:56Z) - The Offense-Defense Balance of Scientific Knowledge: Does Publishing AI
Research Reduce Misuse? [0.0]
人工知能(AI)研究の誤用に関する懸念が高まっている。
科学研究の出版は技術の誤用を助長するが、この研究は誤用に対する保護にも貢献する。
本稿ではこれらの2つの効果のバランスについて述べる。
論文 参考訳(メタデータ) (2019-12-27T10:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。