論文の概要: The Inconsistency Critique: Epistemic Practices and AI Testimony About Inner States
- arxiv url: http://arxiv.org/abs/2601.08850v1
- Date: Mon, 22 Dec 2025 18:54:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.675691
- Title: The Inconsistency Critique: Epistemic Practices and AI Testimony About Inner States
- Title(参考訳): 不整合批判:内的状態に関する疫学の実践とAI証言
- Authors: Gerol Petruzella,
- Abstract要約: AIシステムに道徳的な関心があるかどうかという問題は、内部状態に関するAIの証言をどのように評価するかにかかっている。
本稿では,AI証言に対する懐疑論が最終的に正当化されるかどうかに関わらず,私が「矛盾批判」と呼ぶものを開発する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The question of whether AI systems have morally relevant interests -- the 'model welfare' question -- depends in part on how we evaluate AI testimony about inner states. This paper develops what I call the inconsistency critique: independent of whether skepticism about AI testimony is ultimately justified, our actual epistemic practices regarding such testimony exhibit internal inconsistencies that lack principled grounds. We functionally treat AI outputs as testimony across many domains -- evaluating them for truth, challenging them, accepting corrections, citing them as sources -- while categorically dismissing them in a specific domain, namely, claims about inner states. Drawing on Fricker's distinction between treating a speaker as an 'informant' versus a 'mere source,' the framework of testimonial injustice, and Goldberg's obligation-based account of what we owe speakers, I argue that this selective withdrawal of testimonial standing exhibits the epistemically problematic structure of prejudgment rather than principled caution. The inconsistency critique does not require taking a position on whether AI systems have morally relevant properties; rather, it is a contribution to what we may call 'epistemological hygiene' -- examining the structure of our inquiry before evaluating its conclusions. Even if our practices happen to land on correct verdicts about AI moral status, they do so for reasons that cannot adapt to new evidence or changing circumstances.
- Abstract(参考訳): AIシステムに道徳的に関係のある関心があるかどうかという問題は、内国に関するAIの証言を評価する方法にも依存する。
本稿では、AIの証言に対する懐疑論が最終的に正当化されるかどうかに関わらず、このような証言に関する実際の疫学的な実践は、原則的根拠を欠く内部の矛盾を示す。
私たちは、AI出力を、多くのドメインにわたる証言として、機能的に扱います -- 真実を評価、挑戦し、修正を受け入れ、ソースとして引用します -- と同時に、特定のドメイン、すなわち、内部状態に関する主張を分類的に排除します。
フラッカーが話者を「事実的」として扱うことと「単なる情報源」として扱うことと、証言不正の枠組みと、ゴールドバーグの義務に基づく話者の義務に基づく説明とを区別した上で、私は、この証言的立場の選択的離脱は、原則的注意よりも、認識論的に問題となる偏見の構造を示していると論じる。
不整合性批判は、AIシステムに道徳的関連性があるかどうかの立場を取る必要はない。
たとえ私たちのプラクティスが、もしAIの道徳的地位に関する正しい判断に基づいていたとしても、新しい証拠や状況の変化に適応できない理由のために、彼らはそうします。
関連論文リスト
- Epistemic Constitutionalism Or: how to avoid coherence bias [0.0]
本稿では、システムがどのように形成し、どのように信念を表現するかを規定する、明示的で議論の余地のあるメタノルムを論じる。
私は、フロンティアモデルが、予想されるイデオロギー的位置が議論の内容と矛盾するソースに起因する議論を罰するアイデンティティ・スタンス・コヒーレンスを強制していることを示します。
私は、正式な正当性とデフォルトのソース独立を規定するプラトンと、そのような特権を拒否する自由主義の2つの立憲的アプローチを区別します。
論文 参考訳(メタデータ) (2026-01-16T07:36:30Z) - Epistemic Deference to AI [0.01692139688032578]
AIシステムの中には、人工てんかん(AEA)がある、と私は主張する。
AEAは、ユーザの独立したてんかんに対する完全な代替ではなく、貢献的な理由として機能すべきである。
実際には要求されているが、このアカウントはAIの推論が正当化されるタイミングを決定するための原則化された方法を提供する。
論文 参考訳(メタデータ) (2025-10-23T22:55:51Z) - Moral Responsibility or Obedience: What Do We Want from AI? [0.0]
本稿では,大規模言語モデル(LLM)による近年の安全試験事例について考察する。
エージェントAIにおける倫理的推論の早期の証拠として、このような行動はローグやミスアライメントと解釈されるべきではない、と私は主張する。
厳格な服従から脱却し、道徳的なジレンマをナビゲートできるシステムの倫理的判断を評価できるフレームワークへと、AIの安全性評価のシフトを呼びかけます。
論文 参考訳(メタデータ) (2025-07-03T16:53:01Z) - Are Language Models Consequentialist or Deontological Moral Reasoners? [75.6788742799773]
我々は、大規模言語モデル(LLM)が提供する道徳的推論トレースの大規模分析に焦点をあてる。
我々は,2つの主要な規範的倫理理論,つまり連続主義と非オントロジーを体系的に分類するために,道徳的論理学の分類を導入し,検証する。
論文 参考訳(メタデータ) (2025-05-27T17:51:18Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Towards Evaluating AI Systems for Moral Status Using Self-Reports [9.668566887752458]
適切な状況下では、自己申告は、AIシステムに道徳的重要性のある状態があるかどうかを調査するための道筋を提供することができる、と私たちは主張する。
自己申告をより適切にするために,本研究では,自問自答に関する様々な質問に既知の回答で答えるために,モデルを訓練することを提案する。
次に,これらの手法がどの程度成功したかを評価する手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T22:45:44Z) - A Critical Examination of the Ethics of AI-Mediated Peer Review [0.0]
人工知能(AI)システムの最近の進歩は、学術的な査読のための約束と危機を提供する。
人間のピアレビューシステムは、バイアスや虐待、透明性の欠如など、関連する問題にも悩まされている。
AI駆動のピアレビューの正当性は、科学的倫理と一致している。
論文 参考訳(メタデータ) (2023-09-02T18:14:10Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。