論文の概要: The Endless Tuning. An Artificial Intelligence Design To Avoid Human Replacement and Trace Back Responsibilities
- arxiv url: http://arxiv.org/abs/2507.14909v2
- Date: Wed, 22 Oct 2025 10:17:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:08.622631
- Title: The Endless Tuning. An Artificial Intelligence Design To Avoid Human Replacement and Trace Back Responsibilities
- Title(参考訳): 終わりなきチューニング。人間の置き換えや、責任の追跡を避ける人工知能設計
- Authors: Elio Grande,
- Abstract要約: Endless Tuningは、二重ミラーリングプロセスに基づく人工知能の信頼性の高い展開のための設計方法である。
その後プロトコルで実現され、意思決定プロセスに関する3つのアプリケーションで実装された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Endless Tuning is a design method for a reliable deployment of artificial intelligence based on a double mirroring process, which pursues both the goals of avoiding human replacement and filling the so-called responsibility gap (Matthias 2004). Originally depicted in (Fabris et al. 2024) and ensuing the relational approach urged therein, it was then actualized in a protocol, implemented in three prototypical applications regarding decision-making processes (respectively: loan granting, pneumonia diagnosis, and art style recognition) and tested with such as many domain experts. Step by step illustrating the protocol, giving insights concretely showing a different voice (Gilligan 1993) in the ethics of artificial intelligence, a philosophical account of technical choices (e.g., a reversed and hermeneutic deployment of XAI algorithms) will be provided in the present study together with the results of the experiments, focusing on user experience rather than statistical accuracy. Even thoroughly employing deep learning models, full control was perceived by the interviewees in the decision-making setting, while it appeared that a bridge can be built between accountability and liability in case of damage.
- Abstract(参考訳): Endless Tuningは、人間の置き換えを避け、いわゆる責任ギャップを埋めるという目標を追求する二重ミラーリングプロセスに基づく、人工知能の信頼性の高い展開のための設計手法である(Matthias 2004)。
元々は(Fabris et al 2024)に描かれ、それに従ってリレーショナルアプローチが推奨され、プロトコルで実現され、意思決定プロセス(特にローン付与、肺炎の診断、アートスタイルの認識)に関する3つの原型的応用で実装され、多くのドメインエキスパートとテストされた。
このプロトコルを具体化して、人工知能の倫理において異なる声を具体的に示す洞察を与える(Gilligan 1993)。この研究には、統計的精度よりもユーザエクスペリエンスに焦点を当てた実験結果とともに、技術的選択の哲学的説明(例えば、XAIアルゴリズムの逆転および半音的展開)が提供される。
深い学習モデルを徹底的に採用したとしても、意思決定環境では面接者によって完全な制御が認識され、損傷した場合は説明責任と責任の間に橋が架けられるように見えた。
関連論文リスト
- Managing Ambiguity: A Proof of Concept of Human-AI Symbiotic Sense-making based on Quantum-Inspired Cognitive Mechanism of Rogue Variable Detection [39.146761527401424]
この研究は、あいまいさを一級構成とすることで管理理論に寄与する。
VUCA環境における組織的レジリエンスに対する人間-AI共生の実践的価値を示す。
論文 参考訳(メタデータ) (2025-12-17T11:23:18Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Person-AI Bidirectional Fit - A Proof-Of-Concept Case Study Of Augmented Human-Ai Symbiosis In Management Decision-Making Process [39.146761527401424]
本稿では,人間の意思決定者と人工知能システムの間にある,継続的に進化し,文脈に敏感なアライメントを主認識するペルソナAIの双方向適合の概念を発展させる。
本研究は,シニアAIリーダの実際の採用プロセスを含む概念実証ケーススタディを通じて,経営決定におけるP-AIの役割について検討した。
論文 参考訳(メタデータ) (2025-11-17T18:22:30Z) - Human-AI Collaborative Uncertainty Quantification [26.38833436936642]
我々は、AIモデルが人間の専門家の提案する予測セットをいかに洗練するかを形式化するフレームワークであるHuman AI Collaborative Uncertainty Quantificationを紹介する。
最適協調予測セットは1つのスコア関数上の直感的な2つのしきい値構造に従っており、古典的な結果を共形予測で拡張することを示す。
画像分類、回帰、テキストベースの医学的意思決定に関する実験は、協調予測セットがエージェント単独よりも一貫して優れていることを示している。
論文 参考訳(メタデータ) (2025-10-27T16:11:23Z) - ClearFairy: Capturing Creative Workflows through Decision Structuring, In-Situ Questioning, and Rationale Inference [59.65947911667229]
本稿では,行動・人工物・自己説明の認知的意思決定ステップに推論を関連づけるCLEARフレームワークを提案する。
ClearFairyはUI設計のための思考支援AIアシスタントで、弱い説明を検知し、軽量で明確な質問をし、知識共有の負担を軽減するために、根拠の欠如を推測する。
論文 参考訳(メタデータ) (2025-09-18T02:11:34Z) - Towards Cognitively-Faithful Decision-Making Models to Improve AI Alignment [35.506295119331064]
対比較から認知に忠実な意思決定プロセスを学ぶための公理的アプローチを提案する。
提案したモデルが,人間のペアによる意思決定の事前モデルと一致しているか,あるいは精度を超越しているかを示す。
論文 参考訳(メタデータ) (2025-09-04T17:59:29Z) - Explainable AI for Collaborative Assessment of 2D/3D Registration Quality [50.65650507103078]
本稿では,2D/3D登録品質検証に特化して訓練された最初の人工知能フレームワークを提案する。
我々の説明可能なAI(XAI)アプローチは、人間のオペレーターに対する情報意思決定を強化することを目的としている。
論文 参考訳(メタデータ) (2025-07-23T15:28:57Z) - Agent-as-Tool: A Study on the Hierarchical Decision Making with Reinforcement Learning [1.1331292553789585]
大規模言語モデル(LLM)は、人工知能の最も重要な技術進歩の1つとして登場した。
本稿では,ツール呼び出しプロセスと推論プロセスを分離した階層型フレームワークAgent-as-toolを提案する。
我々の研究は180サンプルに対してわずかに強化された微調整を施し、同等の結果を得た。
論文 参考訳(メタデータ) (2025-07-02T08:49:43Z) - Towards a Cascaded LLM Framework for Cost-effective Human-AI Decision-Making [55.2480439325792]
複数の専門分野にまたがってタスクを適応的に委譲するLLM決定フレームワークを提案する。
まず、deferral Policyは、ベースモデルの回答を受け入れるか、あるいは大きなモデルでそれを再生するかを決定する。
第2に、禁忌ポリシーは、カスケードモデル応答が十分に確実であるか、または人間の介入を必要とするかを判定する。
論文 参考訳(メタデータ) (2025-06-13T15:36:22Z) - Discovering Pathology Rationale and Token Allocation for Efficient Multimodal Pathology Reasoning [25.707757721296627]
多モード画像理解は、診断精度を向上させる可能性から、広く関心を集めている。
既存の手法では推論能力が限られており、複雑な診断シナリオを扱う能力を妨げている。
本稿では,2つの相乗的分枝からなる二元的強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T16:03:03Z) - On the Mistaken Assumption of Interchangeable Deep Reinforcement Learning Implementations [53.0667196725616]
ディープ・強化学習(Deep Reinforcement Learning, DRL)とは、エージェントがニューラルネットワークを使って特定の環境でどのアクションをとるかを学ぶ人工知能のパラダイムである。
DRLは最近、ドライビングシミュレーター、3Dロボット制御、マルチプレイヤー・オンライン・バトル・アリーナ・ビデオゲームといった複雑な環境を解くことで注目を集めている。
現在、Deep Q-Network (DQN) や Proximal Policy Optimization (PPO) アルゴリズムのような、これらのエージェントを訓練する最先端のアルゴリズムの実装が数多く存在する。
論文 参考訳(メタデータ) (2025-03-28T16:25:06Z) - Towards Objective and Unbiased Decision Assessments with LLM-Enhanced Hierarchical Attention Networks [6.520709313101523]
本研究では,人的専門家による高い意思決定過程における認知バイアスの識別について検討する。
人間の判断を超越したバイアス対応AI拡張ワークフローを提案する。
実験では,提案モデルとエージェントワークフローの両方が,人間の判断と代替モデルの両方において有意に改善されている。
論文 参考訳(メタデータ) (2024-11-13T10:42:11Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Counterfactual Prediction Under Selective Confounding [3.6860485638625673]
この研究は、全ての共同創設者が知られていない場合、バイナリ処理とその結果の間の因果推論を行うという課題に対処する。
我々は、希望する処置の下ですべての共同創設者を知るという要求を緩和し、選択的共起(Selective Confounding)と呼ぶ。
提案手法の有効性に関する理論的誤差境界と実証的証拠の両方を,実世界と実世界の子配置データを用いて提示する。
論文 参考訳(メタデータ) (2023-10-21T16:54:59Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Self-distillation for surgical action recognition [1.9217607824148526]
外科的ビデオ解析におけるクラス不均衡と潜在的なラベル曖昧性に対処する手段として,自己蒸留の概念を検討する。
提案手法は,スウィントランスフォーマーをバックボーンとして用いる3種類のモデルの異種アンサンブルである。
本手法は, 医用画像解析アプリケーションにおいて, 自己蒸留が重要なツールとなる可能性を示している。
論文 参考訳(メタデータ) (2023-03-22T21:09:54Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。