論文の概要: Opening the Scope of Openness in AI
- arxiv url: http://arxiv.org/abs/2505.06464v1
- Date: Fri, 09 May 2025 23:16:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.851754
- Title: Opening the Scope of Openness in AI
- Title(参考訳): AIにおけるオープンネスのスコープを開く
- Authors: Tamara Paris, AJung Moon, Jin Guo,
- Abstract要約: AIにおけるオープン性の概念は、これまでオープンソースソフトウェアの定義とコミュニティの実践に強く影響を受けてきました。
我々は、異なる分野におけるオープンネスの基本的なスコープを考えると、議論が広まると論じている。
私たちの研究は、オープンソースソフトウェアを超えたオープンネスの原則と実践を反映して、AIのオープンネスをフレーミングする最近の取り組みに貢献しています。
- 参考スコア(独自算出の注目度): 1.2894076331861155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The concept of openness in AI has so far been heavily inspired by the definition and community practice of open source software. This positions openness in AI as having positive connotations; it introduces assumptions of certain advantages, such as collaborative innovation and transparency. However, the practices and benefits of open source software are not fully transferable to AI, which has its own challenges. Framing a notion of openness tailored to AI is crucial to addressing its growing societal implications, risks, and capabilities. We argue that considering the fundamental scope of openness in different disciplines will broaden discussions, introduce important perspectives, and reflect on what openness in AI should mean. Toward this goal, we qualitatively analyze 98 concepts of openness discovered from topic modeling, through which we develop a taxonomy of openness. Using this taxonomy as an instrument, we situate the current discussion on AI openness, identify gaps and highlight links with other disciplines. Our work contributes to the recent efforts in framing openness in AI by reflecting principles and practices of openness beyond open source software and calls for a more holistic view of openness in terms of actions, system properties, and ethical objectives.
- Abstract(参考訳): AIにおけるオープン性の概念は、これまでオープンソースソフトウェアの定義とコミュニティの実践に強く影響を受けてきました。
これにより、AIにおけるオープン性はポジティブな意味を持つものとして位置づけられ、協調的なイノベーションや透明性といった特定の利点の仮定が導入される。
しかし、オープンソースソフトウェアのプラクティスとメリットは、AIに完全に移行することはできない。
AIに合わせたオープン性の概念のフレームは、その増大する社会的意味、リスク、能力に対処するために不可欠である。
我々は、異なる分野におけるオープン性の基本的スコープを考慮すると、議論を広げ、重要な視点を導入し、AIにおけるオープン性の意味を反映するだろうと論じている。
この目的に向けて,トピックモデリングから発見された98のオープンネス概念を質的に分析し,オープンネスの分類法を開発する。
この分類を指標として、AIのオープン性に関する現在の議論を整理し、ギャップを特定し、他の分野とのリンクを強調します。
私たちの研究は、オープンソースソフトウェアを超えてオープンネスの原則と実践を反映し、行動、システム特性、倫理的目的という観点からオープンネスをより包括的な視点を求めることで、AIにおけるオープンネスのフレーム化における最近の取り組みに貢献しています。
関連論文リスト
- Comprehensive Analysis of Transparency and Accessibility of ChatGPT, DeepSeek, And other SoTA Large Language Models [2.6900047294457683]
オープンソース人工知能(AI)に関する議論が増えているが、既存の研究は、最先端(SoTA)大規模言語モデル(LLM)の透明性とアクセシビリティに関する議論を欠いている。
この研究は、ChatGPT、DeepSeek、LLaMAなどを含む過去5年間のSoTA LLMを批判的に分析し、透明性標準への準拠と部分的開放性の影響を評価する。
我々の研究結果によると、いくつかのモデルはオープンソースとしてラベル付けされているが、必ずしも完全にオープンソースであるとは限らない。
論文 参考訳(メタデータ) (2025-02-21T23:53:13Z) - Safety is Essential for Responsible Open-Ended Systems [47.172735322186]
オープンエンドレスネス(Open-Endedness)とは、AIシステムが新規で多様なアーティファクトやソリューションを継続的に自律的に生成する能力である。
このポジションペーパーは、Open-Ended AIの本質的に動的で自己伝播的な性質は、重大な、未発見のリスクをもたらすと主張している。
論文 参考訳(メタデータ) (2025-02-06T21:32:07Z) - Open Problems in Mechanistic Interpretability [61.44773053835185]
機械的解釈可能性(Mechanistic Interpretability)は、ニューラルネットワークの能力の根底にある計算メカニズムを理解することを目的としている。
これらの目標に向けての最近の進歩にもかかわらず、解を必要とする分野には多くの未解決問題が存在する。
論文 参考訳(メタデータ) (2025-01-27T20:57:18Z) - Towards a Framework for Openness in Foundation Models: Proceedings from the Columbia Convening on Openness in Artificial Intelligence [18.130525337375985]
本稿では,AIスタックにまたがるオープンネスと闘うためのフレームワークを提案する。
このトピックに関する以前の研究を要約し、オープン性を追求する様々な潜在的理由を分析します。
モデルとシステムレベルで、AIスタックのさまざまな部分でオープン性がどのように変化するのかを概説する。
論文 参考訳(メタデータ) (2024-05-17T20:35:39Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - The Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency, and Usability in Artificial Intelligence [0.0]
モデルの完全性とオープン性に基づいて機械学習モデルを評価する3階層分類システムであるモデルオープンネスフレームワーク(MOF)を紹介する。
各MOFクラスに対して、モデル開発ライフサイクルのコード、データ、ドキュメントコンポーネントを定義します。
さらに、モデルオープンネスツール(MOT)は、MOF分類システムに対するモデルのオープン性と完全性を評価するために、ユーザフレンドリーなリファレンス実装を提供する。
論文 参考訳(メタデータ) (2024-03-20T17:47:08Z) - A Survey on Neural Open Information Extraction: Current Status and
Future Directions [87.30702606041407]
Open Information extract (OpenIE) は、大規模コーパスからの関係事実のドメインに依存しない発見を容易にする。
我々は、最先端のニューラルなOpenIEモデル、その設計決定、強み、弱点について概観する。
論文 参考訳(メタデータ) (2022-05-24T02:24:55Z) - Open Questions in Creating Safe Open-ended AI: Tensions Between Control
and Creativity [15.60659580411643]
オープンエンド進化と人工生命は、オープンエンドAIの理解に大きく貢献している。
本稿では、オープンエンドAIには、オープンエンドシステムの創造性を生産的かつ予測的に制御できるかどうかという、独自の安全性上の課題がある、と論じる。
論文 参考訳(メタデータ) (2020-06-12T22:28:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。