披露:此处表达的观点和观点仅属于作者,不代表crypto.news社论的观点和观点。
人工智能正在悄然重塑现代生活的每个角落。从我们如何搜索网络到我们如何投资、学习和投票,人工智能模型现在正在调解我们一些最关键的决策。但在日益便利的背后,存在着一个更深层次、更紧迫的担忧:公众无法了解这些模型如何工作、它们接受的培训以及谁从中受益。
这是似曾相识的。
我们以前在社交媒体上经历过这种情况,赋予一小群公司前所未有的公共话语权力。这导致了算法的不透明、愤怒货币化以及对共享现实的侵蚀。这一次,不仅我们的饲料面临风险,我们的决策系统、法律框架和核心机构也面临风险。
我们睁大眼睛走进它。
集中化的未来已经初具规模
当今的人工智能格局由少数几个闭门运营的强大实验室主导。这些公司在巨大的厕所上训练大型模型--从互联网上抓取,有时未经同意--并将它们发布在产品中,每天塑造数十亿次数字交互。这些模型不受审查。该数据不可审计。结果是不负责的。
这种集中化不仅仅是一个技术问题。这是一个政治和经济问题。认知的未来正在建立在黑匣子中,以法律防火墙为依据,并针对股东价值进行优化。随着人工智能系统变得更加自主并嵌入社会,我们面临着将必要的公共基础设施转变为私人管理的引擎的风险。
问题不在于人工智能是否会改变社会;它已经改变了。真正的问题是我们是否对这种转变如何展开有发言权。
去中心化人工智能的案例
然而,还有一条替代道路--世界各地的社区、研究人员和开发人员已经在探索这条道路。
这场运动并不是加强封闭的生态系统,而是建议构建设计透明、治理分散、并对其权力者负责的人工智能系统。这种转变需要的不仅仅是技术创新,它需要围绕所有权、认可和集体责任进行文化重组。
在这种模式下,数据不仅仅是在没有确认的情况下被提取和货币化。它是由创造它的人贡献、验证和管理的。贡献者可以获得认可或奖励。验证者成为利益相关者。系统在公共监督而不是单方面控制的情况下发展。
虽然这些方法仍处于开发初期,但它们指向了一个截然不同的未来--智能是点对点流动的,而不是自上而下的。
为什么透明度不能等待
人工智能基础设施的整合正在以极快的速度进行。数万亿美元的公司正在竞相建设垂直一体化管道。各国政府正在提出法规,但很难跟上。与此同时,对人工智能的信任正在动摇。爱德曼最近的一份报告发现,只有35%的美国人信任人工智能公司,比前几年大幅下降。
这种信任危机并不奇怪。公众怎么能信任他们不理解、无法审计、无法追索的系统呢?
唯一可持续的解药是透明度,不仅在模型本身,而且在每一个层面:从如何收集数据,到如何训练模型,再到谁从它们的使用中获利。通过支持开放基础设施和构建归因协作框架,我们可以开始重新平衡权力动态。
这不是为了阻碍创新。这是关于塑造它。
共享所有权可能是什么样子
建立透明的人工智能经济需要重新思考,而不仅仅是代码库。这意味着重新审视过去二十年来定义科技行业的激励措施。
更民主的人工智能未来可能包括追踪数据贡献如何影响结果的公共账本、对模型更新和部署决策的集体治理、贡献者、培训者和验证者的经济参与,以及反映当地价值观和背景的联合培训系统。
它们是未来的起点,人工智能不仅对资本负责,而且对社区负责。
时间不等人
我们仍然可以选择如何发展。我们已经看到当我们将数字代理交给集中式平台时会发生什么。有了人工智能,后果将更加深远,而且不那么可逆转。
如果我们想要一个智能成为共享公共产品而不是私人资产的未来,那么我们必须开始构建开放、可审计和公平的系统。
它首先问一个简单的问题:人工智能最终应该为谁服务?
拉姆·库马尔是OpenLedger的核心贡献者,OpenLedger是人工智能的新经济层,数据贡献者、模型构建者和应用程序开发人员最终因他们创造的价值而受到认可和奖励。Ram拥有处理数十亿美元企业账户的丰富经验,已成功与沃尔玛、索尼、葛兰素史克和《洛杉矶时报》等全球巨头合作。