論文の概要: A Basis for Human Responsibility in Artificial Intelligence Computation
- arxiv url: http://arxiv.org/abs/2501.12498v1
- Date: Tue, 21 Jan 2025 20:59:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 13:30:19.498360
- Title: A Basis for Human Responsibility in Artificial Intelligence Computation
- Title(参考訳): 人工知能計算における人間責任の基礎
- Authors: Vincenzo Calderonio,
- Abstract要約: 人工知能の最近の進歩は、AIの自律性の境界に関する疑問を再燃させた。
本稿では,GPT-4におけるアライメント研究センター実験の分析を通して,これらの境界について検討する。
思考実験とその対策を検討することで、人間のアクティベーションと目的の定義の必要性が、AIが人間によって開始された行動に固有の依存にどのように依存しているかを啓蒙する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recent advancements in artificial intelligence have reopened the question about the boundaries of AI autonomy, particularly in discussions around artificial general intelligence (AGI) and its potential to act independently across varied purposes. This paper explores these boundaries through the analysis of the Alignment Research Center experiment on GPT-4 and introduces the Start Button Problem, a thought experiment that examines the origins and limits of AI autonomy. By examining the thought experiment and its counterarguments will be enlightened how in the need for human activation and purpose definition lies the AI's inherent dependency on human-initiated actions, challenging the assumption of AI as an agent. Finally, the paper addresses the implications of this dependency on human responsibility, questioning the measure of the extension of human responsibility when using AI systems.
- Abstract(参考訳): 人工知能の最近の進歩は、AIの自律性の境界、特に人工知能(AGI)に関する議論と、様々な目的において独立して行動する可能性に関する疑問を再燃させた。
本稿では,GPT-4におけるアライメント研究センター実験の分析を通じて,これらの境界を探索し,AI自律性の起源と限界を調べる思考実験であるスタートボタン問題を紹介する。
思考実験とその対策を検討することで、人間のアクティベーションと目的の定義の必要性が、AIの人間主導の行動への依存性にどのように依存しているかを啓蒙し、エージェントとしてのAIの仮定に挑戦する。
最後に、AIシステムを使用する際の人的責任の延長の尺度に疑問を呈する。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Measuring Human Contribution in AI-Assisted Content Generation [68.03658922067487]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - Responsible AI: Portraits with Intelligent Bibliometrics [30.51687434548628]
この研究は、責任あるAIを定義し、そのコア原則を特定した。
この研究は、2015年からAIコミュニティが寄稿した17,799の論文を実証的に調査した。
複数の分野から380の記事からなるコアコホートの分析は、責任あるAIの最新の進歩を捉えている。
論文 参考訳(メタデータ) (2024-05-05T08:40:22Z) - Advancing Explainable AI Toward Human-Like Intelligence: Forging the
Path to Artificial Brain [0.7770029179741429]
説明可能なAI(XAI)における人工知能(AI)と神経科学の交差は、複雑な意思決定プロセスにおける透明性と解釈可能性を高めるために重要である。
本稿では,機能ベースから人間中心のアプローチまで,XAI方法論の進化について考察する。
生成モデルにおける説明可能性の達成、責任あるAIプラクティスの確保、倫理的意味への対処に関する課題について論じる。
論文 参考訳(メタデータ) (2024-02-07T14:09:11Z) - Analyzing Character and Consciousness in AI-Generated Social Content: A
Case Study of Chirper, the AI Social Network [0.0]
この研究はAIの振る舞いを包括的に調査し、多様な設定がチャーパーの反応に与える影響を分析している。
一連の認知テストを通じて、この研究はチャーパーズの自己認識とパターン認識の能力を評価する。
この研究の興味深い側面は、チャーパーのハンドルやパーソナリティのタイプがパフォーマンスに与える影響を探ることである。
論文 参考訳(メタデータ) (2023-08-30T15:40:18Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - AI and the Sense of Self [0.0]
我々は、自己の認知的感覚と、責任ある行動につながる自律的な意思決定におけるその役割に焦点を当てる。
著者らは、AIエージェントのよりリッチな計算モデルを構築することに、より研究的な関心を抱くことを期待している。
論文 参考訳(メタデータ) (2022-01-07T10:54:06Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。