論文の概要: Correctness Learning: Deductive Verification Guided Learning for Human-AI Collaboration
- arxiv url: http://arxiv.org/abs/2503.07096v1
- Date: Mon, 10 Mar 2025 09:20:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:49:39.511373
- Title: Correctness Learning: Deductive Verification Guided Learning for Human-AI Collaboration
- Title(参考訳): 正確性学習:人間とAIの協調のための導出的検証学習
- Authors: Zhao Jin, Lu Jin, Yizhe Luo, Shuo Feng, Yucheng Shi, Kai Zheng, Xinde Yu, Mingliang Xu,
- Abstract要約: 我々は,人間とAIの協調性を高めるために,正当性学習(CL)を提案する。
Clは、歴史的高品質のスキームから導出的な検証方法と洞察を統合する。
- 参考スコア(独自算出の注目度): 31.255719231317546
- License:
- Abstract: Despite significant progress in AI and decision-making technologies in safety-critical fields, challenges remain in verifying the correctness of decision output schemes and verification-result driven design. We propose correctness learning (CL) to enhance human-AI collaboration integrating deductive verification methods and insights from historical high-quality schemes. The typical pattern hidden in historical high-quality schemes, such as change of task priorities in shared resources, provides critical guidance for intelligent agents in learning and decision-making. By utilizing deductive verification methods, we proposed patten-driven correctness learning (PDCL), formally modeling and reasoning the adaptive behaviors-or 'correctness pattern'-of system agents based on historical high-quality schemes, capturing the logical relationships embedded within these schemes. Using this logical information as guidance, we establish a correctness judgment and feedback mechanism to steer the intelligent decision model toward the 'correctness pattern' reflected in historical high-quality schemes. Extensive experiments across multiple working conditions and core parameters validate the framework's components and demonstrate its effectiveness in improving decision-making and resource optimization.
- Abstract(参考訳): 安全クリティカルな分野におけるAIと意思決定技術の大きな進歩にもかかわらず、決定出力スキームの正しさと検証-反則駆動設計の正しさの検証には依然として課題が残っている。
提案する正当性学習(CL)は,従来の高品質スキームからの導出的検証手法と洞察を統合することで,人間とAIのコラボレーションを強化するものである。
共有リソースにおけるタスク優先順位の変更など、歴史的に高品質なスキームに隠された典型的なパターンは、学習と意思決定において知的エージェントにとって重要なガイダンスを提供する。
提案手法は,提案手法を用いてパタン駆動型正当性学習(PDCL,patten-driven correctness learning)を提案し,それらの手法に埋め込まれた論理的関係を抽出し,システムエージェントの適応行動(あるいは「正当性パターン」)を形式的にモデル化し,推論する。
この論理情報を指針として,従来の高品質なスキームに反映された「正当性パターン」に対して知的決定モデルを操るための正当性判定とフィードバック機構を確立する。
複数の作業条件とコアパラメータにわたる広範な実験は、フレームワークのコンポーネントを評価し、意思決定とリソース最適化を改善する効果を実証する。
関連論文リスト
- A Unified Framework for Evaluating the Effectiveness and Enhancing the Transparency of Explainable AI Methods in Real-World Applications [2.0681376988193843]
AIモデルの特徴である"ブラックボックス"は、解釈可能性、透明性、信頼性を制約する。
本研究では,AIモデルによる説明の正確性,解釈可能性,堅牢性,公正性,完全性を評価するための統合XAI評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-05T05:30:10Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - The Role of Deductive and Inductive Reasoning in Large Language Models [37.430396755248104]
本稿では,大規模言語モデル(LLM)推論を強化するために,DID法を提案する。
DIDはリトルストーン次元と情報エントロピーを組み合わせた2次元複雑度評価システムを実装している。
その結果,推理精度と解の精度は有意に向上した。
論文 参考訳(メタデータ) (2024-10-03T18:30:47Z) - Beyond Algorithmic Fairness: A Guide to Develop and Deploy Ethical AI-Enabled Decision-Support Tools [0.0]
人工知能(AI)と最適化の統合は、エンジニアリングシステムの効率性、信頼性、レジリエンスを向上させるための大きな約束を持っている。
本稿では,AIと最適化の交差点にアルゴリズムを配置する際に必要となる倫理的考察を明らかにする。
本論文は,ルールの規範的セットを提供するのではなく,研究者間のリフレクションと意識を高めることを目的としている。
論文 参考訳(メタデータ) (2024-09-17T18:37:53Z) - Pattern based learning and optimisation through pricing for bin packing problem [50.83768979636913]
確率変数の分布のような問題条件が変化すると、以前の状況でうまく機能するパターンはより効果的になるかもしれないと論じる。
本研究では,パターンを効率的に同定し,各条件に対する値の動的定量化を行う新しい手法を提案する。
本手法は,制約を満たす能力と目的値に対する影響に基づいて,パターンの値の定量化を行う。
論文 参考訳(メタデータ) (2024-08-27T17:03:48Z) - Making Large Language Models Better Planners with Reasoning-Decision Alignment [70.5381163219608]
マルチモーダリティ強化LLMに基づくエンドツーエンド意思決定モデルを提案する。
ペア化されたCoTと計画結果との推論・決定アライメントの制約を提案する。
提案する大規模言語プランナをRDA-Driverとして推論・決定アライメントする。
論文 参考訳(メタデータ) (2024-08-25T16:43:47Z) - Balancing Rigor and Utility: Mitigating Cognitive Biases in Large Language Models for Multiple-Choice Questions [0.46873264197900916]
本稿では,大規模言語モデル(LLM)の意思決定過程における認知バイアスの役割について検討する。
適切なバランスをとると、ある程度の認知バイアスが合理的な偏差やショートカットによって意思決定効率を高めることが示される。
論文 参考訳(メタデータ) (2024-06-16T16:25:22Z) - Learning Reward and Policy Jointly from Demonstration and Preference Improves Alignment [58.049113055986375]
我々は、報酬モデルとポリシーをトレーニングするために、AIHF(Alignment with Integrated Human Feedback)と呼ばれる単一ステージアプローチを開発する。
提案した手法は、一般的なアライメントアルゴリズムに容易に還元し、活用できる、効率的なアルゴリズムの集合を認めている。
本研究では,LLMにおけるアライメント問題と,MuJoCoにおけるロボット制御問題を含む広範な実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-06-11T01:20:53Z) - Q-Cogni: An Integrated Causal Reinforcement Learning Framework [29.196739858730567]
アルゴリズム統合型因果強化学習フレームワークQ-Cogniを提案する。
Q-Cogniは、事前に学習した環境の構造因果モデルを用いて最適な学習を実現する。
本報告では,より優れた政策の提示,学習効率の向上,エージェントの意思決定の解釈可能性の向上について報告する。
論文 参考訳(メタデータ) (2023-02-26T05:50:26Z) - Joint Differentiable Optimization and Verification for Certified
Reinforcement Learning [91.93635157885055]
安全クリティカル制御システムのためのモデルベース強化学習では,システム特性を正式に認定することが重要である。
本稿では,強化学習と形式検証を共同で行う枠組みを提案する。
論文 参考訳(メタデータ) (2022-01-28T16:53:56Z) - The Statistical Complexity of Interactive Decision Making [126.04974881555094]
複雑度尺度であるDecision-Estimation Coefficientは,サンプル効率のインタラクティブ学習に必要かつ十分であることが証明された。
統合アルゴリズム設計原則であるE2Dは、教師付き推定のための任意のアルゴリズムを、意思決定のためのオンラインアルゴリズムに変換する。
論文 参考訳(メタデータ) (2021-12-27T02:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。