論文の概要: Open, to What End? A Capability-Theoretic Perspective on Open Search
- arxiv url: http://arxiv.org/abs/2603.14584v1
- Date: Sun, 15 Mar 2026 20:02:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.899387
- Title: Open, to What End? A Capability-Theoretic Perspective on Open Search
- Title(参考訳): オープン・トゥ・ザ・エンド? オープン検索の能力理論的視点
- Authors: Nicola Neophytou, Bhaskar Mitra,
- Abstract要約: オープン検索の推進は、必然的に同様の紛争に遭遇するだろう、と私たちは主張する。
オープンの概念は、オープン化されているものだけでなく、能力理論的なレンズを通して理解されるべきである。
- 参考スコア(独自算出の注目度): 4.556036763646309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The hegemony of control over our search platforms by a few large corporations raises justifiable concerns, particularly in light of emerging geopolitical tensions and growing instances of ideological imposition by authoritarian actors to manipulate public opinion. Recent movement for promote open search has emerged in response. This follows from past and ongoing push for openness to challenge corporate oligopolies (e.g., open source and open AI models) which have seen significant ongoing negotiations and renegotiations to establish standards around what constitutes being open. These tensions have hindered these movements from effectively challenging power, in turn allowing powerful corporations to neutralize or co-opt these movements to further entrench their dominance. We argue that the push for open search will inevitably encounter similar conflicts, and should foreground these tensions to safefguard against similar challenges as these adjacent movements. In particular, we argue that the concept of open should be understood not with respect to what is being made open but through a capability-theoretic lens, in terms of the capabilities it affords to the actors the system is being opened to.
- Abstract(参考訳): 少数の大企業による検索プラットフォームの支配のヘゲモニーは、特に地政学的な緊張の高まりや、権威主義的なアクターによる世論を操作するイデオロギー的示唆の高まりを踏まえて、妥当な懸念を提起している。
近年,オープンサーチの推進運動が活発化している。
これは過去と現在進行中のオープン性(例えば、オープンソースとオープンなAIモデル)への挑戦の推進に続くもので、オープンなものを構成する標準を確立するための交渉と再交渉が進行中である。
これらの緊張は、これらの動きを効果的に挑戦する権力から妨げているため、強力な企業がこれらの動きを中立化したり、協力したりすることで、その支配をさらに強めることを可能にしている。
オープン検索の推進は、必然的に同様の紛争に遭遇し、これらの緊張関係を前もって、これらの隣接する動きと同様の課題から守るべきである、と我々は主張する。
特に、オープンの概念は、オープンされているものに関してではなく、そのシステムが開かれているアクターに与えられる能力の観点から、能力理論レンズを通して理解されるべきである。
関連論文リスト
- The Compulsory Imaginary: AGI and Corporate Authority [0.0]
この論文は、2つの主要なAGI企業が構造的に一貫した修辞的戦略を通じて社会技術的想像論を構築していると主張している。
本論文は、変革的技術開発の最前線において、社会技術想像の枠組みを国家から民間企業へと拡張する。
論文 参考訳(メタデータ) (2026-02-27T05:04:44Z) - Information Access of the Oppressed: A Problem-Posing Framework for Envisioning Emancipatory Information Access Platforms [5.801539233803859]
オンライン情報アクセスプラットフォームは、権威的な捕獲のターゲットです。
この問題は、パウロ・フレイアの解放教育理論のレンズを通して探求する。
論文 参考訳(メタデータ) (2026-01-14T16:15:26Z) - Open Shouldn't Mean Exempt: Open-Source Exceptionalism and Generative AI [1.8256490853231881]
この論文は「オープンソース例外主義」の一般的な正当性について批判的に考察する。
結論は、オープンソース開発者は、技術エコシステムの他のすべてのアクターと同じ法的および倫理的基準に守らなければならない、ということだ。
論文 参考訳(メタデータ) (2025-10-16T18:21:06Z) - Opening the Scope of Openness in AI [1.2894076331861155]
AIにおけるオープン性の概念は、これまでオープンソースソフトウェアの定義とコミュニティの実践に強く影響を受けてきました。
我々は、異なる分野におけるオープンネスの基本的なスコープを考えると、議論が広まると論じている。
私たちの研究は、オープンソースソフトウェアを超えたオープンネスの原則と実践を反映して、AIのオープンネスをフレーミングする最近の取り組みに貢献しています。
論文 参考訳(メタデータ) (2025-05-09T23:16:44Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Safety is Essential for Responsible Open-Ended Systems [47.172735322186]
オープンエンドレスネス(Open-Endedness)とは、AIシステムが新規で多様なアーティファクトやソリューションを継続的に自律的に生成する能力である。
このポジションペーパーは、Open-Ended AIの本質的に動的で自己伝播的な性質は、重大な、未発見のリスクをもたらすと主張している。
論文 参考訳(メタデータ) (2025-02-06T21:32:07Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Open Questions in Creating Safe Open-ended AI: Tensions Between Control
and Creativity [15.60659580411643]
オープンエンド進化と人工生命は、オープンエンドAIの理解に大きく貢献している。
本稿では、オープンエンドAIには、オープンエンドシステムの創造性を生産的かつ予測的に制御できるかどうかという、独自の安全性上の課題がある、と論じる。
論文 参考訳(メタデータ) (2020-06-12T22:28:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。