論文の概要: Transdisciplinary AI Observatory -- Retrospective Analyses and
Future-Oriented Contradistinctions
- arxiv url: http://arxiv.org/abs/2012.02592v2
- Date: Mon, 7 Dec 2020 02:23:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 12:17:59.249645
- Title: Transdisciplinary AI Observatory -- Retrospective Analyses and
Future-Oriented Contradistinctions
- Title(参考訳): Transdisciplinary AI Observatory --Retrospective Analyss and Future-Oriented Contradistinctions
- Authors: Nadisha-Marie Aliman, Leon Kester, and Roman Yampolskiy
- Abstract要約: 本稿では、本質的に学際的なAI観測アプローチの必要性を動機づける。
これらのAI観測ツールに基づいて、我々はAIの安全性に関する短期的な学際的ガイドラインを提示する。
- 参考スコア(独自算出の注目度): 22.968817032490996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last years, AI safety gained international recognition in the light of
heterogeneous safety-critical and ethical issues that risk overshadowing the
broad beneficial impacts of AI. In this context, the implementation of AI
observatory endeavors represents one key research direction. This paper
motivates the need for an inherently transdisciplinary AI observatory approach
integrating diverse retrospective and counterfactual views. We delineate aims
and limitations while providing hands-on-advice utilizing concrete practical
examples. Distinguishing between unintentionally and intentionally triggered AI
risks with diverse socio-psycho-technological impacts, we exemplify a
retrospective descriptive analysis followed by a retrospective counterfactual
risk analysis. Building on these AI observatory tools, we present near-term
transdisciplinary guidelines for AI safety. As further contribution, we discuss
differentiated and tailored long-term directions through the lens of two
disparate modern AI safety paradigms. For simplicity, we refer to these two
different paradigms with the terms artificial stupidity (AS) and eternal
creativity (EC) respectively. While both AS and EC acknowledge the need for a
hybrid cognitive-affective approach to AI safety and overlap with regard to
many short-term considerations, they differ fundamentally in the nature of
multiple envisaged long-term solution patterns. By compiling relevant
underlying contradistinctions, we aim to provide future-oriented incentives for
constructive dialectics in practical and theoretical AI safety research.
- Abstract(参考訳): ここ数年、AIの安全性は、AIの幅広い有益な影響を覆すリスクを克服する不均一な安全クリティカルで倫理的な問題に照らして国際的に認識されるようになった。
この文脈では、AI観測の取り組みの実装は1つの重要な研究方向を表している。
本稿では,多様なふりかえりと反現実的視点を統合した,本質的に学際的なAI観測アプローチの必要性を示唆する。
具体的実例を活用しながら,目標と限界を明確にする。
意図的・意図的に引き起こされるAIリスクと、多様な社会-心理学的影響によるAIリスクの区別は、ふりかえりの説明的分析に続いて、ふりかえりの事実的リスク分析を例証する。
これらのAI観測ツールに基づいて、我々はAIの安全性に関する短期的な学際的ガイドラインを提示する。
さらなる貢献として、2つの異なる近代AI安全パラダイムのレンズを通して、差別化および調整された長期的な方向性について議論する。
単純性については、これら2つのパラダイムをそれぞれ、人工愚かさ(AS)と永遠創造性(EC)という用語で言及する。
asとecは、aiの安全性と多くの短期的考慮に関して、ハイブリッドな認知的-適応的アプローチの必要性を認識しているが、それらは、複数の長期的ソリューションパターンの性質において根本的に異なる。
基礎となる反証をコンパイルすることで、実用的および理論的ai安全性研究における建設的弁証法に対する将来のインセンティブを提供することを目標とする。
関連論文リスト
- AI Alignment through Reinforcement Learning from Human Feedback? Contradictions and Limitations [0.2106667480549292]
我々は、誠実さ、無害さ、役に立つという、広く追求されたアライメント目標の欠点を示す。
我々はRLxFの目標に固有の緊張と矛盾を強調する。
我々は、RLxFの社会技術的影響を批判的に評価するよう研究者や実践者に促すことで結論付ける。
論文 参考訳(メタデータ) (2024-06-26T13:42:13Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
Particip-AIは、現在および将来のAIユースケースと、非専門家から損害と利益を収集するフレームワークである。
人口統計学的に多様な参加者295名から回答を得た。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - A Vision for Operationalising Diversity and Inclusion in AI [5.4897262701261225]
本研究は,AIエコシステムにおける多様性と包摂性(D&I)の倫理的命令の運用を想定することを目的とする。
AI開発における重要な課題は、D&Iの原則を効果的に運用することである。
本稿では,ジェネレーティブAI(GenAI)を用いたペルソナシミュレーションを活用したツール開発のためのフレームワークの構想を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:44:39Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Arguments about Highly Reliable Agent Designs as a Useful Path to
Artificial Intelligence Safety [0.0]
HRAD(Highly Reliable Agent Designs)は、最も議論の的かつ野心的なアプローチの一つである。
我々は,(1)付随効用,(2)脱融合,(3)正確な仕様,(4)予測の議論をタイトルにした。
本稿では,出版・非公式文献のレビューに基づいて,その前提と主張を論じるとともに,その話題に関する立場を述べた専門家も紹介する。
論文 参考訳(メタデータ) (2022-01-09T07:42:37Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - AI Research Considerations for Human Existential Safety (ARCHES) [6.40842967242078]
負の言葉で言えば、我々は人類が次の世紀のAI開発から直面する現実的なリスクを問う。
Emphprepotenceという,仮説AI技術の鍵となる性質
その後、既存の安全に対する潜在的な利益のために、現代の研究方向の集合が検討される。
論文 参考訳(メタデータ) (2020-05-30T02:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。