論文の概要: Developmental Support Approach to AI's Autonomous Growth: Toward the Realization of a Mutually Beneficial Stage Through Experiential Learning
- arxiv url: http://arxiv.org/abs/2502.19798v1
- Date: Thu, 27 Feb 2025 06:12:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 14:58:00.613176
- Title: Developmental Support Approach to AI's Autonomous Growth: Toward the Realization of a Mutually Beneficial Stage Through Experiential Learning
- Title(参考訳): AIの自律的成長への発達支援アプローチ : 経験的学習による相互効果段階の実現に向けて
- Authors: Taichiro Endo,
- Abstract要約: 本研究では,AI自体の倫理的発展を支援する「AI開発支援」アプローチを提案する。
我々は,経験,内観,分析,仮説形成のサイクルに基づく学習フレームワークを構築した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study proposes an "AI Development Support" approach that, unlike conventional AI Alignment-which aims to forcefully inject human values-supports the ethical and moral development of AI itself. As demonstrated by the Orthogonality Thesis, the level of intelligence and the moral quality of a goal are independent; merely expanding knowledge does not enhance ethical judgment. Furthermore, to address the risk of Instrumental Convergence in ASI-that is, the tendency to engage in subsidiary behaviors such as self-protection, resource acquisition, and power reinforcement to achieve a goal-we have constructed a learning framework based on a cycle of experience, introspection, analysis, and hypothesis formation. As a result of post-training using Supervised Fine Tuning (SFT) and Direct Preference Optimization (DPO) with synthetic data generated by large language models (LLMs), responses demonstrating cooperative and highly advanced moral judgment (reaching the high-est Stage 6) were obtained even under adversarial prompts. This method represents a promising implementation approach for enabling AI to establish sustainable, symbiotic relationships.
- Abstract(参考訳): 従来のAIアライメントとは違い,人間の価値を強制的に注入することを目的として,AI自体の倫理的・道徳的発展を支援する「AI開発支援」アプローチを提案する。
直交論(Orthogonality Thesis)で示されるように、知性のレベルと目標の道徳的品質は独立している。
さらに、AISにおける機器収束のリスクに対処するため、自己保護、資源獲得、力強化といった補助的行動に取り組んで目標を達成する傾向があり、我々は経験、内省、分析、仮説形成のサイクルに基づく学習枠組みを構築してきた。
大規模言語モデル(LLM)の合成データを用いたSFT(Supervised Fine Tuning)とDPO(Direct Preference Optimization)のポストトレーニングの結果, 対向的プロンプト下においても, 協調的かつ高度に高度な道徳的判断(最高段階6の取得)を示す応答が得られた。
この方法は、AIが持続可能な共生関係を確立するための有望な実装手法である。
関連論文リスト
- A Conceptual Exploration of Generative AI-Induced Cognitive Dissonance and its Emergence in University-Level Academic Writing [0.0]
本研究は,認知不協和(CD)のトリガーおよび増幅器として,生成人工知能(GenAI)が果たす役割について考察する。
我々は、AI駆動の効率と、独創性、努力、知的所有権の原則との緊張を浮き彫りにして、GenAIによるCDの仮説的構成を導入する。
我々は、この不協和を緩和するための戦略について議論する。例えば、反射的教育、AIリテラシープログラム、GenAI使用の透明性、規律固有のタスク再設計などである。
論文 参考訳(メタデータ) (2025-02-08T21:31:04Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Comprehensive AI Assessment Framework: Enhancing Educational Evaluation with Ethical AI Integration [0.0]
本稿では、Perkins、Furze、Roe、MacVaughによるAIA(AIAS)の進化版である包括的AIアセスメントフレームワーク(CAIAF)について述べる。
CAIAFは厳格な倫理的ガイドラインを取り入れており、教育レベルと高度なAI能力に基づいて明確に区別されている。
このフレームワークは、より良い学習結果を保証するとともに、学術的完全性を維持し、AIの責任ある利用を促進する。
論文 参考訳(メタデータ) (2024-06-07T07:18:42Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Vision for Operationalising Diversity and Inclusion in AI [5.4897262701261225]
本研究は,AIエコシステムにおける多様性と包摂性(D&I)の倫理的命令の運用を想定することを目的とする。
AI開発における重要な課題は、D&Iの原則を効果的に運用することである。
本稿では,ジェネレーティブAI(GenAI)を用いたペルソナシミュレーションを活用したツール開発のためのフレームワークの構想を提案する。
論文 参考訳(メタデータ) (2023-12-11T02:44:39Z) - Hybrid Approaches for Moral Value Alignment in AI Agents: a Manifesto [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
連続体としてモデル化された機械に道徳を導入する問題に対する既存のアプローチの体系化を提供する。
我々は、適応可能で堅牢だが制御可能で解釈可能なエージェントシステムを構築するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - Interpretable deep-learning models to help achieve the Sustainable
Development Goals [0.0]
我々は、解釈可能な人工知能(AI)モデルに対する私たちの洞察と、倫理的AIシステムの開発におけるそれらの重要性について論じる。
深層学習法から真に解釈可能なモデル、例えば帰納的バイアスによって得られた記号モデルから抽出する可能性を強調した。
論文 参考訳(メタデータ) (2021-08-24T13:56:15Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。