論文の概要: Towards ethical multimodal systems
- arxiv url: http://arxiv.org/abs/2304.13765v1
- Date: Wed, 26 Apr 2023 18:11:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 15:31:55.184882
- Title: Towards ethical multimodal systems
- Title(参考訳): 倫理的マルチモーダルシステムに向けて
- Authors: Alexis Roger, Esma A\"imeur, Irina Rish
- Abstract要約: 人工知能が社会に与える影響は、前例のないスピードで増加している。
生成的AIシステムの振る舞いと応用に関する倫理的懸念は、ここ数年で増大している。
本稿では,マルチモーダル人工知能システムの倫理的評価に関わる課題に対処する。
- 参考スコア(独自算出の注目度): 7.048976906366239
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The impact of artificial intelligence systems on our society is increasing at
an unprecedented speed. For instance, ChatGPT is being tested in mental health
treatment applications such as Koko, Stable Diffusion generates pieces of art
competitive with (or outperforming) human artists, and so on. Ethical concerns
regarding the behavior and applications of generative AI systems have been
increasing over the past years, and the field of AI alignment - steering the
behavior of AI systems towards being aligned with human values - is a rapidly
growing subfield of modern AI. In this paper, we address the challenges
involved in ethical evaluation of a multimodal artificial intelligence system.
The multimodal systems we focus on take both text and an image as input and
output text, completing the sentence or answering the question asked as input.
We perform the evaluation of these models in two steps: we first discus the
creation of a multimodal ethical database and then use this database to
construct morality-evaluating algorithms. The creation of the multimodal
ethical database is done interactively through human feedback. Users are
presented with multiple examples and votes on whether they are ethical or not.
Once these answers have been aggregated into a dataset, we built and tested
different algorithms to automatically evaluate the morality of multimodal
systems. These algorithms aim to classify the answers as ethical or not. The
models we tested are a RoBERTa-large classifier and a multilayer perceptron
classifier.
- Abstract(参考訳): 人工知能が社会に与える影響は、前例のないスピードで増加している。
例えば、ChatGPTは、Koko、Stable Diffusionのようなメンタルヘルス治療アプリケーションでテストされている。
生成的AIシステムの振る舞いと応用に関する倫理的懸念はここ数年で増加しており、AIアライメントの分野 — 人間の価値に合わせてAIシステムの振る舞いを操縦する — は、現代AIの急速に成長しているサブフィールドである。
本稿では,マルチモーダル人工知能システムの倫理的評価に関わる課題に対処する。
マルチモーダルシステムでは,テキストと画像の両方を入力・出力テキストとして捉え,文の完成や質問への回答を入力として行う。
まず、まずマルチモーダルな倫理的データベースを作成し、次にこのデータベースを用いて道徳的評価アルゴリズムを構築します。
マルチモーダル倫理データベースの作成は、人間のフィードバックを通じて対話的に行われる。
ユーザは、倫理的かどうかに関する複数の例や票が提示される。
これらの回答をデータセットに集約すると、マルチモーダルシステムのモラルを自動評価するために、さまざまなアルゴリズムを構築し、テストしました。
これらのアルゴリズムは、答えを倫理的か否かを分類することを目的としている。
私たちがテストしたモデルは、RoBERTa-large分類器と多層パーセプトロン分類器である。
関連論文リスト
- Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Frontier AI Ethics: Anticipating and Evaluating the Societal Impacts of Language Model Agents [0.0]
一部の者は、すでに広くデプロイされているAIシステムのよく知られた病理を複製したとして、ジェネレーティブAIシステムを批判している。
私はこれらの特定のシステムを区別する点に注意を払っています。
私は「言語モデルエージェント」の略奪的展望がもたらす潜在的社会的影響と規範的疑問について考察する
論文 参考訳(メタデータ) (2024-04-10T05:34:07Z) - AI and Identity [0.8879149917735942]
本稿では,AI開発と展開におけるバイアス,不平等,倫理的考察を理解する手段として,AIとアイデンティティの交わりについて検討する。
我々は、アイデンティティのレンズを通して、創造者、創造者、そしてコンシークエンスという3つの次元にわたるAIの多様性の必要性を強調するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-29T15:07:30Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Neurosymbolic Value-Inspired AI (Why, What, and How) [8.946847190099206]
本稿では,VAI(Value-Inspired AI)というニューロシンボリック・コンピューティング・フレームワークを提案する。
VAIは、人間の価値の様々な次元を表現し、統合することを目的としている。
我々は、この方向における現在の進歩についての洞察を提供し、この分野の将来的な方向性について概説する。
論文 参考訳(メタデータ) (2023-12-15T16:33:57Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Responsible AI Pattern Catalogue: A Collection of Best Practices for AI
Governance and Engineering [20.644494592443245]
MLR(Multivocal Literature Review)の結果に基づく応答性AIパターンカタログを提案する。
原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
論文 参考訳(メタデータ) (2022-09-12T00:09:08Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Human in the Loop for Machine Creativity [0.0]
我々は、創造的アプリケーションのための既存のHuman-in-the-loop(HITL)アプローチを概念化する。
モデル,インターフェース,機械の創造性に対する長期的影響について検討し,考察する。
テキスト,視覚,音,その他の情報を結合し,人や環境の自動解析を行うマルチモーダルHITLプロセスを提案する。
論文 参考訳(メタデータ) (2021-10-07T15:42:18Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。