論文の概要: FairSense-AI: Responsible AI Meets Sustainability
- arxiv url: http://arxiv.org/abs/2503.02865v2
- Date: Wed, 05 Mar 2025 16:24:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 12:09:27.512923
- Title: FairSense-AI: Responsible AI Meets Sustainability
- Title(参考訳): FairSense-AI: 責任あるAIがサステナビリティに直面する
- Authors: Shaina Raza, Mukund Sayeeganesh Chettiar, Matin Yousefabadi, Tahniat Khan, Marcelo Lotif,
- Abstract要約: テキストと画像の両方のバイアスを検出し緩和するフレームワークであるFairSense-AIを紹介する。
LLM(Large Language Models)とVLM(Vision-Language Models)を活用することで、FairSense-AIは微妙な偏見やステレオタイピングの形式を明らかにする。
FairSense-AIは、MIT AI Risk RepositoryやNIST AI Risk Management Frameworkといったフレームワークと連携する、AIリスク評価コンポーネントを統合する。
- 参考スコア(独自算出の注目度): 1.980639720136382
- License:
- Abstract: In this paper, we introduce FairSense-AI: a multimodal framework designed to detect and mitigate bias in both text and images. By leveraging Large Language Models (LLMs) and Vision-Language Models (VLMs), FairSense-AI uncovers subtle forms of prejudice or stereotyping that can appear in content, providing users with bias scores, explanatory highlights, and automated recommendations for fairness enhancements. In addition, FairSense-AI integrates an AI risk assessment component that aligns with frameworks like the MIT AI Risk Repository and NIST AI Risk Management Framework, enabling structured identification of ethical and safety concerns. The platform is optimized for energy efficiency via techniques such as model pruning and mixed-precision computation, thereby reducing its environmental footprint. Through a series of case studies and applications, we demonstrate how FairSense-AI promotes responsible AI use by addressing both the social dimension of fairness and the pressing need for sustainability in large-scale AI deployments. https://vectorinstitute.github.io/FairSense-AI, https://pypi.org/project/fair-sense-ai/ (Sustainability , Responsible AI , Large Language Models , Vision Language Models , Ethical AI , Green AI)
- Abstract(参考訳): 本稿では,テキストと画像の両方のバイアスを検出し緩和するためのマルチモーダルフレームワークであるFairSense-AIを紹介する。
LLM(Large Language Models)とVLM(Vision-Language Models)を活用することで、FairSense-AIは、コンテンツに現れる微妙な偏見やステレオタイピングの形式を明らかにし、ユーザのバイアススコア、説明的ハイライト、フェアネス向上のための自動レコメンデーションを提供する。
さらに、FairSense-AIは、MIT AI Risk RepositoryやNIST AI Risk Management Frameworkといったフレームワークと整合したAIリスク評価コンポーネントを統合し、倫理的および安全上の懸念を構造化した識別を可能にする。
このプラットフォームは、モデルプルーニングや混合精度計算といった技術によってエネルギー効率に最適化されており、環境負荷を減らすことができる。
一連のケーススタディと応用を通じて、FairSense-AIは、公正性の社会的次元と、大規模AIデプロイメントにおける持続可能性の必要性の両方に対処することによって、責任あるAI利用を促進するかを実証する。
https://vectorinstitute.github.io/FairSense-AI, https://pypi.org/project/fair-sense-ai/ (サステナビリティ、レスポンシブルAI、大規模言語モデル、ビジョン言語モデル、倫理AI、グリーンAI)
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Mapping the Potential of Explainable AI for Fairness Along the AI Lifecycle [1.4183971140167246]
説明可能なAI(XAI)は、AIシステムの公正性を高めるための有望な方法だと考えています。
8つのフェアネスデシダラタを蒸留し、それらをAIライフサイクルに沿ってマッピングし、XAIがそれぞれにどのように対処できるかについて議論する。
論文 参考訳(メタデータ) (2024-04-29T14:34:43Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - The Journey to Trustworthy AI: Pursuit of Pragmatic Frameworks [0.0]
本稿では,信頼に値する人工知能(TAI)とその様々な定義についてレビューする。
我々は、TAIの代わりにResponsibleやEthical AIといった用語を使うことに反対する。
代わりに、フェアネス、バイアス、リスク、セキュリティ、説明可能性、信頼性といった重要な属性や特性に対処するアプローチを提唱します。
論文 参考訳(メタデータ) (2024-03-19T08:27:04Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - On the meaning of uncertainty for ethical AI: philosophy and practice [10.591284030838146]
これは、数学的推論に倫理的考察をもたらす重要な方法であると主張する。
我々は、2021年12月のOmicron型COVID-19の拡散について、英国政府に助言するために使用される競合モデルの文脈内でこれらのアイデアを実証する。
論文 参考訳(メタデータ) (2023-09-11T15:13:36Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Guiding AI-Generated Digital Content with Wireless Perception [69.51950037942518]
本稿では,AIGC(AIGC)と無線認識を統合し,デジタルコンテンツ制作の質を向上させる。
このフレームワークは、単語の正確な記述が難しいユーザの姿勢を読み取るために、新しいマルチスケール認識技術を採用し、それをスケルトン画像としてAIGCモデルに送信する。
生産プロセスはAIGCモデルの制約としてユーザの姿勢を強制するため、生成されたコンテンツはユーザの要求に適合する。
論文 参考訳(メタデータ) (2023-03-26T04:39:03Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。