論文の概要: The Plausibility Trap: Using Probabilistic Engines for Deterministic Tasks
- arxiv url: http://arxiv.org/abs/2601.15130v1
- Date: Wed, 21 Jan 2026 16:05:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.448199
- Title: The Plausibility Trap: Using Probabilistic Engines for Deterministic Tasks
- Title(参考訳): 可算性トラップ:確率的エンジンを用いた決定論的タスク
- Authors: Ivan Carrera, Daniel Maldonado-Ruiz,
- Abstract要約: 本稿は、"Plausibility Trap"を定義する。
人工知能にアクセスする個人は、単純な決定論的タスクのために高価な確率的エンジンをデプロイする。
ツール選択エンジニアリングと決定論的確率決定行列を導入し、開発者が生成AIを使うタイミングを決定するのを助ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The ubiquity of Large Language Models (LLMs) is driving a paradigm shift where user convenience supersedes computational efficiency. This article defines the "Plausibility Trap": a phenomenon where individuals with access to Artificial Intelligence (AI) models deploy expensive probabilistic engines for simple deterministic tasks-such as Optical Character Recognition (OCR) or basic verification-resulting in significant resource waste. Through micro-benchmarks and case studies on OCR and fact-checking, we quantify the "efficiency tax"-demonstrating a ~6.5x latency penalty-and the risks of algorithmic sycophancy. To counter this, we introduce Tool Selection Engineering and the Deterministic-Probabilistic Decision Matrix, a framework to help developers determine when to use Generative AI and, crucially, when to avoid it. We argue for a curriculum shift, emphasizing that true digital literacy relies not only in knowing how to use Generative AI, but also on knowing when not to use it.
- Abstract(参考訳): LLM(Large Language Models)は、利用者の利便性が計算効率に取って代わるパラダイムシフトを推進している。
本稿では、人工知能(AI)モデルにアクセスできる個人が、光学的文字認識(OCR)や重要な資源廃棄物の基本的な検証・置換といった単純な決定論的タスクのために高価な確率的エンジンをデプロイする現象であるPlausibility Trapを定義する。
OCRとファクトチェックに関するマイクロベンチマークとケーススタディを通じて、我々は「効率税」を定量化し、約6.5倍の遅延ペナルティとアルゴリズムによる梅毒のリスクを実証する。
これに対応するために、ツール選択エンジニアリングと決定論的確率決定行列(Deterministic-Probabilistic Decision Matrix)を紹介します。
私たちはカリキュラムのシフトを主張し、真のデジタルリテラシーはジェネレーティブAIの使い方を知ることだけでなく、いつ使うべきかを知ることにも依存している、と強調する。
関連論文リスト
- AI Agents as Universal Task Solvers [94.49762121230042]
我々は,過去のデータを用いて,普遍的な解法が達成できる最適なスピードアップが,アルゴリズム情報と密接な関係があることを示す。
我々は、推論モデルをスケールする際に最適化する重要な量は時間であり、学習における重要な役割は、これまでは間接的にのみ考慮されてきたと論じている。
論文 参考訳(メタデータ) (2025-10-14T02:17:54Z) - Inductive Learning of Robot Task Knowledge from Raw Data and Online Expert Feedback [3.10979520014442]
ロボットの自律性の向上は、特に人間とロボットの相互作用シナリオにおいて、信頼と社会的受容の課題を引き起こす。
これはロボット認知能力の解釈可能な実装を必要としており、おそらくはタスク仕様の定義のための論理としての形式的手法に基づいている。
本稿では,タスク仕様を抽出するノイズの多い例から,帰納的論理プログラミングに基づくオフラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-13T17:25:46Z) - Adaptation of XAI to Auto-tuning for Numerical Libraries [0.0]
説明可能なAI(XAI)技術は、AIモデル開発の合理化と、ユーザへのAI出力の説明の負担軽減を目的として、注目を集めている。
本研究は,2つの異なるプロセスに統合されたAIモデルのXAIに着目し,数値計算を行う。
論文 参考訳(メタデータ) (2024-05-12T09:00:56Z) - Brain-inspired Computational Intelligence via Predictive Coding [73.42407863671565]
予測符号化(PC)は、機械学習コミュニティにとって潜在的に価値のある、有望な特性を示している。
PCライクなアルゴリズムは、機械学習とAIの複数のサブフィールドに存在し始めている。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Inferring Temporal Logic Properties from Data using Boosted Decision
Trees [3.4606842570088094]
本論文は,学習に基づくロボット制御の解釈に向けた第一歩である。
本稿では,漸進的な公式と予測学習という新しい学習問題を導入する。
本稿では,弱いが計算コストの低い学習者による予測と性能向上を実現するために,強化された決定木アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-24T19:29:02Z) - Multi-Agent Reinforcement Learning with Temporal Logic Specifications [65.79056365594654]
本研究では,時間論理仕様を満たすための学習課題を,未知の環境下でエージェントのグループで検討する。
我々は、時間論理仕様のための最初のマルチエージェント強化学習手法を開発した。
主アルゴリズムの正確性と収束性を保証する。
論文 参考訳(メタデータ) (2021-02-01T01:13:03Z) - Verification of ML Systems via Reparameterization [6.482926592121413]
確率的プログラムを定理証明器で自動的に表現する方法を示す。
また、ベイズ仮説テストで用いられるヌルモデルは、人口統計学的パリティ(英語版)と呼ばれる公平性基準を満たすことを証明した。
論文 参考訳(メタデータ) (2020-07-14T02:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。