論文の概要: Why They Disagree: Decoding Differences in Opinions about AI Risk on the Lex Fridman Podcast
- arxiv url: http://arxiv.org/abs/2512.06350v1
- Date: Sat, 06 Dec 2025 08:48:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.316055
- Title: Why They Disagree: Decoding Differences in Opinions about AI Risk on the Lex Fridman Podcast
- Title(参考訳): Lex Fridman PodcastにおけるAIリスクに関する意見の違いをデコードする理由
- Authors: Nghi Truong, Phanish Puranam, Özgecan Koçak,
- Abstract要約: 本稿では,AIリスクに関する現代の議論を分析する。
実存リスク(Xリスク)の観点の違いは、設計と複雑なシステムの出現に関する因果的前提の違いから生じる。
これらの2つのAIリスクの相違は、2つの性質を共有しているように見える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emergence of transformative technologies often surfaces deep societal divisions, nowhere more evident than in contemporary debates about artificial intelligence (AI). A striking feature of these divisions is that they persist despite shared interests in ensuring that AI benefits humanity and avoiding catastrophic outcomes. This paper analyzes contemporary debates about AI risk, parsing the differences between the "doomer" and "boomer" perspectives into definitional, factual, causal, and moral premises to identify key points of contention. We find that differences in perspectives about existential risk ("X-risk") arise fundamentally from differences in causal premises about design vs. emergence in complex systems, while differences in perspectives about employment risks ("E-risks") pertain to different causal premises about the applicability of past theories (evolution) vs their inapplicability (revolution). Disagreements about these two forms of AI risk appear to share two properties: neither involves significant disagreements on moral values and both can be described in terms of differing views on the extent of boundedness of human rationality. Our approach to analyzing reasoning chains at scale, using an ensemble of LLMs to parse textual data, can be applied to identify key points of contention in debates about risk to the public in any arena.
- Abstract(参考訳): 変革的技術の出現は、しばしば深い社会分裂を表面化し、人工知能(AI)に関する現代の議論ほど明らかではない。
これらの部門で顕著な特徴は、AIが人類に利益をもたらし、破滅的な結果を避けることへの共通の関心にもかかわらず、彼らは存続していることだ。
本稿は,AIリスクに関する現代的議論を分析し,"ドーマー"と"ブーマー"の視点の違いを定義的,事実的,因果的,道徳的前提に解析し,論争の要点を特定する。
実存リスク(Xリスク)に関する視点の違いは、設計と複雑なシステムの出現に関する因果的前提の違いを基本として生じるが、雇用リスク(Eリスク)に関する視点の違いは、過去の理論(進化)と適用不可能(再進化)の異なる因果的前提に関するものである。
これらの2つのAIリスクの相違は、2つの性質を共有しているように見える。
文献データを解析するためにLLMのアンサンブルを用いて大規模に推論連鎖を解析するためのアプローチは、あらゆるアリーナにおける公衆へのリスクに関する議論において重要な論争点を特定するために応用できる。
関連論文リスト
- Realist and Pluralist Conceptions of Intelligence and Their Implications on AI Research [33.46616462561506]
私たちは、現在のAI研究は2つの異なるインテリジェンスの概念のスペクトルで動いていると論じます。
これらの概念はインテリジェンス・リアリズムとインテリジェンス・プラナリズムである。
これらの前提を明確化することは、AI研究における不一致の明確化に寄与する、と我々は主張する。
論文 参考訳(メタデータ) (2025-11-19T09:48:07Z) - The Stories We Govern By: AI, Risk, and the Power of Imaginaries [0.0]
本稿では,人工知能(AI)の社会技術的想像力の競合が,ガバナンス決定や規制制約をいかに形成するかを検討する。
我々は、破滅的なAGIシナリオを強調する現実的リスク擁護者、AIを解き放たれる変革的な力として描写する加速主義者、今日の体系的不平等に根ざした害を先導する批判的なAI学者の3つの主要な物語群を分析した。
これらの物語が、リスクに関する異なる仮定を組み込んでおり、代替ガバナンスアプローチの空間を狭めることで、政策策定プロセスに進展する可能性があることを、我々の研究で明らかにしている。
論文 参考訳(メタデータ) (2025-08-15T09:57:56Z) - Perception Gaps in Risk, Benefit, and Value Between Experts and Public Challenge Socially Accepted AI [0.0]
本研究は,一般のAI専門家がAIの能力と影響をどう認識するかを検討する。
シナリオは、持続可能性、医療、仕事のパフォーマンス、社会的不平等、芸術、戦争といった領域にまたがる。
専門家は、常に高い確率を予測し、リスクを知覚し、より多くの利益を報告し、非専門家よりもAIに対する肯定的な感情を表現する。
論文 参考訳(メタデータ) (2024-12-02T12:51:45Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - Two Types of AI Existential Risk: Decisive and Accumulative [3.5051464966389116]
本稿では,従来の「決定型AI x-リスク仮説」と「累積型AI x-リスク仮説」を対比する。
累積的な視点は、AIリスクに関する一見互換性のない視点を調整できる、と氏は主張する。
論文 参考訳(メタデータ) (2024-01-15T17:06:02Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Arguments about Highly Reliable Agent Designs as a Useful Path to
Artificial Intelligence Safety [0.0]
HRAD(Highly Reliable Agent Designs)は、最も議論の的かつ野心的なアプローチの一つである。
我々は,(1)付随効用,(2)脱融合,(3)正確な仕様,(4)予測の議論をタイトルにした。
本稿では,出版・非公式文献のレビューに基づいて,その前提と主張を論じるとともに,その話題に関する立場を述べた専門家も紹介する。
論文 参考訳(メタデータ) (2022-01-09T07:42:37Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。