购 物 车 | 关注信息 | English

Web3 技术有助于建立人们对人工智能的信心与信任

人工智能的承诺是让我们的生活变得更加轻松。而巨大的便利背后,隐藏着可观的利润潜力。联合国预测,到2033年,AI可能成为一个规模高达4.8万亿美元的全球市场——相当于德国整个经济体的体量。

但先别谈2033,放眼当下,AI已经在金融服务、制造业、医疗、市场营销、农业和电子商务等多个领域引发转型。无论是自动化算法“代理人”管理你的投资组合,还是AI诊断系统早期发现疾病,AI正在从根本上改变我们的生活和工作方式。

但人们对AI的质疑情绪也在不断积聚——毕竟我们都看过《终结者2》,足够让人保持高度警惕。那么,真正值得思考的问题是:在AI越来越深入我们日常生活的同时,如何建立信任?

这可不是小事一桩:Camunda最近的一份报告揭示了一个不容忽视的现实:大多数组织(84%)将合规问题归因于AI应用缺乏透明度。如果公司无法查看算法,甚至更糟,算法“隐藏”了某些信息,用户就彻底被蒙在鼓里。而一旦再加上系统性偏见、未经充分测试的系统和支离破碎的监管制度,就会酿成大范围的不信任。


透明化:打开AI的“黑箱”

尽管AI算法能力惊人,但它们往往是不透明的,让用户无从知晓其决策过程。AI拒绝你的贷款申请,是因为信用评分不足,还是源于某种未公开的企业偏见?没有透明度,AI可能只是替其所有者实现目标,而用户却误以为它在为自己服务。

一个颇具前景的解决方案是将这些流程上链,利用区块链技术使算法的运行可验证、可审计。Web3技术正是在这个方向上大展拳脚。我们已经看到一些初创公司在积极探索。例如,微软投资的 Space and Time(SxT)提供防篡改的数据流,内嵌可验证计算层,确保AI所依赖的数据真实、准确、不受任何单一实体干扰。

SxT 的创新技术“SQL 证明器”(Proof of SQL)可确保查询结果基于未被篡改的数据准确计算,并且比当前主流的零知识虚拟机(zkVMs)和协处理器更快完成计算。本质上,SxT 帮助建立对AI输入数据的信任,而不依赖于中心化的权力结构。


让AI赢得信任

信任不是一次性建立的,而是像餐厅维持米其林星级一样,需要长期维持标准。AI系统必须持续接受性能和安全性评估,尤其是在医疗和自动驾驶等高风险领域。一套劣质AI开错药或撞上行人,不是“系统故障”,而是灾难。

这也正是开源模型和链上验证技术的优势所在——使用不可篡改的账本和零知识证明(ZKPs)等加密技术,在保护隐私的前提下保障可信度。当然,信任不是唯一的议题:用户还必须清楚AI的能力边界,才能设定合理预期。如果用户以为AI是“无所不能”的神明,那他们更可能对错误输出也盲目信任。

至今为止,AI教育的话题大多聚焦于它的风险。未来我们应更多地关注提升用户对AI能力与局限的理解,让他们更有能力掌控AI,而非沦为被剥削的对象。


合规与问责机制

正如在加密货币领域一样,“合规”也是讨论AI时绕不开的词汇。AI在法律法规面前不能“免责”。但一个“无脸”的算法,如何承担责任?答案或许就在模块化区块链协议 Cartesi 中。该协议能确保AI推理过程在链上完成。

Cartesi的虚拟机支持开发者在去中心化的执行环境中运行标准AI库,如 TensorFlow、PyTorch 和 Llama.cpp,这让链上AI开发成为现实。换言之,是区块链的透明度与AI计算能力的融合。


通过去中心化建立信任

联合国最近发布的《技术与创新报告》指出,尽管AI带来繁荣与创新,它的发展也有加深“全球数字鸿沟”的风险。而“去中心化”也许正是破解之道,既能让AI大规模扩展,又能增强用户对其内在机制的信任感。