論文の概要: Echoes of AI Harms: A Human-LLM Synergistic Framework for Bias-Driven Harm Anticipation
- arxiv url: http://arxiv.org/abs/2512.03068v1
- Date: Thu, 27 Nov 2025 07:25:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-04 20:02:54.93104
- Title: Echoes of AI Harms: A Human-LLM Synergistic Framework for Bias-Driven Harm Anticipation
- Title(参考訳): AIハームのエコー: バイアス駆動ハーム予測のための人間-LLM相乗的フレームワーク
- Authors: Nicoleta Tantalaki, Sophia Vei, Athena Vakali,
- Abstract要約: ECHOは、プロアクティブなAIハーネス予測のための新しいフレームワークである。
バイアス・ツー・ハーム経路の早期検出を可能にする。
2つのハイテイク領域におけるECHOの検証(診断と採用)
- 参考スコア(独自算出の注目度): 1.5892420496333068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing influence of Artificial Intelligence (AI) systems on decision-making in critical domains has exposed their potential to cause significant harms, often rooted in biases embedded across the AI lifecycle. While existing frameworks and taxonomies document bias or harms in isolation, they rarely establish systematic links between specific bias types and the harms they cause, particularly within real-world sociotechnical contexts. Technical fixes proposed to address AI biases are ill-equipped to address them and are typically applied after a system has been developed or deployed, offering limited preventive value. We propose ECHO, a novel framework for proactive AI harm anticipation through the systematic mapping of AI bias types to harm outcomes across diverse stakeholder and domain contexts. ECHO follows a modular workflow encompassing stakeholder identification, vignette-based presentation of biased AI systems, and dual (human-LLM) harm annotation, integrated within ethical matrices for structured interpretation. This human-centered approach enables early-stage detection of bias-to-harm pathways, guiding AI design and governance decisions from the outset. We validate ECHO in two high-stakes domains (disease diagnosis and hiring), revealing domain-specific, bias-to-harm patterns and demonstrating ECHO's potential to support anticipatory governance of AI systems
- Abstract(参考訳): クリティカルドメインにおける意思決定に対する人工知能(AI)システムの影響の高まりは、AIライフサイクル全体に埋め込まれたバイアスに根ざした、重大な障害を引き起こす可能性を明らかにしている。
既存のフレームワークや分類体系は、偏見や単独での害を文書化するが、特定の偏見タイプとそれらが引き起こす害、特に現実世界の社会技術的文脈において、体系的なリンクを確立することは滅多にない。
AIバイアスに対処するために提案された技術的修正は、それらに対処するには不適であり、通常は、システムが開発またはデプロイされた後に適用され、限定的な予防的価値を提供する。
我々は,多様な利害関係者やドメインコンテキストにおける成果を損なうために,AIバイアス型の体系的なマッピングを通じて,積極的にAIを害する新たなフレームワークであるECHOを提案する。
ECHOは、ステークホルダーの識別、偏りのあるAIシステムのウィグネットに基づくプレゼンテーション、構造化解釈のための倫理的行列に組み込まれた二重(人間-LLM)調和アノテーションを含むモジュラーワークフローに従う。
この人間中心のアプローチは、バイアスからハームへの経路を早期に検出し、AI設計とガバナンスの決定を最初から導く。
我々は、ECHOを2つの高い領域(診断と採用)で検証し、ドメイン固有の偏見とハームパターンを明らかにし、AIシステムの予測ガバナンスを支援するECHOの可能性を示す。
関連論文リスト
- AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Identifying the Supply Chain of AI for Trustworthiness and Risk Management in Critical Applications [0.0]
Gapは、現代のAIシステムの出力に寄与するデータソース、事前訓練されたモデル、エージェント、サービス、その他のシステムの複雑なWebに関連するサプライチェーンリスクの体系的評価に存在する。
我々は、AIのサプライチェーンとAIシステムの振る舞いとアウトプットに関連するリスクに着目し、AIリスク評価と管理の現状を調査する。
本稿では,AIサプライチェーンを分類するための分類法を提案する。
論文 参考訳(メタデータ) (2025-11-19T14:52:02Z) - Neurodivergent Influenceability as a Contingent Solution to the AI Alignment Problem [1.3905735045377272]
AIアライメント問題は、人工知能(AI)システムが人間の価値観に従って行動することを保証することに重点を置いている。
狭義のAIからAI(Artificial General Intelligence, AGI)やスーパーインテリジェンス(Superintelligence, 超知能)への進化に伴い、制御に対する恐怖と現実的なリスクがエスカレートした。
ここでは、避けられないAIのミスアライメントを受け入れることが、競合するエージェントの動的なエコシステムを育むための緊急戦略であるかどうかを検討する。
論文 参考訳(メタデータ) (2025-05-05T11:33:18Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - AI Alignment: A Comprehensive Survey [69.61425542486275]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。