深度解析Multi-Agent:Web3与AI终将相互成就?

如果说 AIGC 开启了内容生成的智能时代,那么 AI Agent 则有机会把 AIGC 的能力真正产品化。

AI Agent 像一位更具象的全能员工,被称为是人工智能机器人的初级形态,能够如同人类一般观察周遭环境、做出决策,并自动采取行动。

比尔·盖茨曾直言,“掌控 AI Agent,才是真正的成就。届时,你将不再需要亲自上网搜索信息。”AI 领域的权威专家们同样对 AI Agent 的前景寄予厚望。微软 CEO 萨提亚·纳德拉曾预言,AI Agent 将成为人机交互的主要方式,能够理解用户需求并主动提供服务。吴恩达教授亦预测,在未来的工作环境中,人类和 AI Agent 将以更加紧密的方式协作,形成高效的工作模式,提高效率。

AI Agent 不单是技术的产物,更是未来生活与工作方式的核心。

这不禁让人回想,当 Web3 和区块链刚引起广泛讨论时,人们也常常用”颠覆”一词来形容这项技术的潜力。回顾过去几年,Web3 从最初的 ERC-20、零知识证明,逐渐发展到了与其他领域相融合的 DeFi、DePIN、GameFi 等。

若将 Web3 与 AI 这两大热门数字科技相结合,会不会产生 1+ 1>2 的效果呢?融资规模越来越庞大的Web3 AI 项目,能否为行业带来新的用例范式,创造新的真实需求?

AI Agent:人类最理想的智能助手

AI Agent 的想象力到底在哪里?网上盛传一个高分答案,“大语言模型只能编个贪吃蛇,而 AI Agent 可以编出一整个王者荣耀。”听起来很夸张,但并未言过其实。

Agent,国内通常翻译为“智体”。这一概念由“人工智能之父” Minsky 在 1986 年出版的《思维的社会》一书中提出,Minsky 认为社会中的某些个体经过协商之后可得出某一问题的解,这些个体就是 Agent。多年来,Agent 一直是人机交互的基石,从微软的剪辑助手 Clippy 到 Google Docs 的自动建议,这些早期形态的 Agent 表现出了个性化交互的潜力,但在处理更复杂任务方面能力仍然有限。直到大语言模型(LLM)的出现,Agent 的真正潜力才得以被挖掘。

今年 5 月,AI 领域权威学者吴恩达教授在美国红杉 AI 活动上分享了关于 AI Agent 的演讲,在其中,他展示了其团队做的一系列实验:

让 AI 去写一些代码并运行,对比不同 LLM 和工作流程得出的结果。结果如下:

  • GPT-3.5 模型:准确率 48% 

  • GPT-4 模型:准确率 67% 

  • GPT-3.5 + Agent:高于 GPT-4 模型的表现

  • GPT-4 + Agent:远高于 GPT-4 模型,非常出色

深度解析Multi-Agent:Web3与AI终将相互成就?

的确。大多数人在使用 ChatGPT 这种 LLM 时,方式通常是:输入一段提示词,大模型会立即生成答案,不会自动识别和纠正错误删除重写。

相比之下,AI Agent 工作流程是这样的:

首先,先让 LLM 写一个文章大纲,如有必要,先在互联网上搜索内容进行调研分析,输出初稿,然后阅读草稿并思考如何优化,如此循环往复、多次迭代,最终输出一篇逻辑严谨、错误率最低的高质量文章。

我们可以发现,AI Agent 与 LLM 的区别在于,LLM 与人类之间的交互基于提示词(prompt)进行。而 AI Agent 仅需设定一个目标,它就能够针对目标独立思考并做出行动。根据给定任务详细拆解出每一步的计划步骤,依靠来自外界的反馈和自主思考,自己给自己创建 prompt,来实现目标。

因此 OpenAI 对 AI Agent 的定义是:以 LLM 为大脑驱动,具有自主理解感知、规划、记忆和使用工具的能力,能自动化执行完成复杂任务的系统。

当 AI 从被使用的工具变成可以使用工具的主体,就成为了 AI Agent。这也正是 AI Agent 可以成为人类最理想智能助手的原因所在。例如,AI Agent 能够基于用户历史线上互动,了解并记忆用户的兴趣、偏好、日常习惯,识别用户的意图,主动提出建议,并协调多个应用程序去完成任务。

深度解析Multi-Agent:Web3与AI终将相互成就?

就如同在盖茨的构想中,未来我们不再需要为不同的任务切换到不同的应用中,只需用平常的语言告诉电脑和手机想做什么,根据用户愿意共享的数据,AI Agent 将提供个性化的响应。

单人独角兽公司正在成为现实

AI Agent 还能够帮助企业打造以“人机协同”为核心的智能化运营新模式。越来越多的业务活动将交由 AI 来完成,而人类则只需要聚焦于企业愿景、战略和关键路径的决策上。

就像 OpenAI 首席执行官 Sam Altman 曾在采访中提到过这样一个引人注目的观点,随着 AI 的发展,我们即将进入“单人独角兽”时代,即由单人创办并达到 10 亿美元估值的公司。

听起来天方夜谭,但在 AI Agent 的助力下,这个观点正在成为现实。

不妨做个假设,现在我们要创办一家科技初创公司。按照传统方法,显然我需要雇佣软件工程师、产品经理、设计师、营销人员、销售和财务人员,各司其职但都由我来协调。

那么如果使用 AI Agent 呢,我可能甚至都不需要雇佣员工。

  • Devin — 自动化编程

替代软件工程师,我可能会使用今年爆火的 AI 软件工程师 Devin,它能帮我完成所有前端和后端的工作。

Devin 由 Cognition Labs 开发,被称为是“世界上第一个 AI 软件工程师”。它能够独立完成整个软件开发工作,独立分析问题、做出决策、编写代码并修复错误,均可自主执行。大大减轻了开发人员的工作负担。Devin 在短短半年内就获得了 1.96 亿美元的融资,估值迅速飙升至数十亿美元,投资方包括 Founders Fund、Khosla Ventures 等知名风险投资公司。

虽然 Devin 仍未推出公开版本,但我们可以从另一个最近爆火 Web2 的产品 Cursor 一窥潜力。它几乎可以为你完成所有工作,将一个简单的想法在几分钟内转化为功能性代码,你只需要发号施令,就能「坐享其成」。有报道称,一个八岁的孩子,在没有任何编程经验的情况下,居然使用 Cursor 完成代码工作并建起了一个网站。

  • Hebbia — 文件处理

替代产品经理或财务人员,我可能会选择 Hebbia,它能帮我完成所有文档的整理和分析。

与 Glean 侧重企业内文档搜索不同,Hebbia Matrix 是一个企业级的 AI Agent 平台,借助多个 AI 模型,帮助用户高效地提取、结构化、分析数据和文档,从而推动企业生产力的提高。令人印象深刻的是,Matrix 能一次性处理多大数百万份文档。

Hebbia 在今年 7 月完成了 1.3 亿美元 B 轮,a16z 领投,Google Ventures、Peter Thiel 等知名投资者参投。

  • Jasper AI — 内容生成

替代社媒运营和设计师,我可能会选择 Jasper AI,它能帮我完成内容的生成。

Jasper AI 是一个 AI Agent 写作助手,旨在帮助创作者、营销人员和企业简化内容生成流程,提高生产力和创作效率。Jasper AI 能够根据用户要求的风格生成多种类型的内容,包括博客文章、社交媒体帖子、广告文案和产品描述等。并根据用户的描述生成图片,为文本内容提供视觉辅助。

Jasper AI 已获得 1.25 亿美元的融资,并在 2022 年达到了 15 亿美元的估值。根据统计数据,Jasper AI 已帮助用户生成超过 5 亿个单词,成为使用最广泛的 AI 写作工具之一。

  • MultiOn — 网页自动化操作

替代助理,我可能会选择 MultiOn,帮我管理日常任务、安排日程、设置提醒,甚至是规划出差行程,自动预订酒店,自动安排网约车。

MultiOn 是一个自动化的网络任务 AI 代理,能够帮助在任何数字环境中自主执行任务,例如帮助用户完成在线购物、预约等个人任务,提升个人效率,或帮助用户简化日常事务,提高工作效率。

  • Perplexity — 搜索、研究

替代研究员,我可能会选择英伟达 CEO 都在每天使用的 Perplexity。

Perplexity 是一个 AI 搜索引擎,能够理解用户的提问,拆分问题,然后搜索和整合内容,生成报告,以向用户提供清晰的答案。

Perplexity 适用于各类用户群体,例如学生和研究人员可以简化写作时的信息检索流程,提高效率;营销人员可以获取可靠数据支持营销策略。

以上内容仅为想象,当下这些 AI Agent 的真正能力和水平尚不足以替代各行各业中的精英人才。正如 Logenic AI 联合创始人李博杰所言,目前 LLM 的能力还只是入门级水平,远远达不到专家级,现阶段的 AI Agent 更像是一个干活比较快但不太可靠的员工。

然而,这些 AI Agent 凭借各自的特长,正在助力现有用户在多样化场景中提高效率和便利性。

不仅仅限于科技公司,各行各业都可以在 AI Agent 的浪潮中获得益处。在教育领域,AI Agent 可以根据学生的学习进度、兴趣和能力提供个性化的学习资源和辅导;在金融领域,AI Agent 可以帮助用户管理个人财务,提供投资建议,甚至预测股票走势;在医疗领域,AI Agent 可以帮助医生进行疾病诊断和治疗方案的制定;在电商领域,AI Agent 还可以作为智能客服,通过自然语言处理和机器学习技术自动回答用户咨询,处理订单问题和退货请求,以此提高客户服务效率。

Multi-Agent:AI Agent 的下一步

在上一节关于单人独角兽公司的设想中,单一的 AI Agent 在处理复杂任务时面临着局限性,难以满足实际需求。而运用多个 AI Agent 时,由于这些 AI Agent 基于异构 LLM,集体决策困难,能力有限,以至于还需要人类充当这些独立 AI Agent 之间的调度员,协调这些服务于不同应用场景的 AI Agent 去工作。这便催生了“Multi Agent(多智体框架)”的兴起。

复杂问题往往需要融合多方面的知识和技能,而单个 AI Agent 的能力有限,难以胜任。通过将不同能力的 AI Agent 进行有机组合,Multi-Agent 系统可以让 AI Agent 发挥各自的长处,取长补短,从而更有效地解决复杂问题。

这非常类似于我们实际中的工作流程或组织结构:由一个领导者分配任务,拥有不同能力的人,负责不同的任务,每个工序执行的结果给到下一个工序,最终得到最后的任务成果。

在实现过程上,由较低级别 AI Agent 执行各自的任务,而由级别较高的 AI Agent 分配任务,并对它们的完成情况进行监督。

Multi-Agent 还能模拟我们人类的决策过程,就像我们遇到问题时会找人商量一样,多个 AI Agent 也可以模拟集体决策的行为,为我们提供更好的信息支持。例如由微软开发的 AutoGen 就满足了这一点:

  • 能够创建不同角色的 AI Agent。这些 AI Agent 具有基本的对话能力,能够根据接收到的消息,生成回复。

  • 通过 GroupChat 来创建由多个 AI Agent 参与的群聊环境,在这个 GroupChat 有一个管理员角色的 AI Agent 管理其他 AI Agent 的聊天记录、发言者顺序、终止发言等。

深度解析Multi-Agent:Web3与AI终将相互成就?

如果应用到单人独角兽公司的设想里,我们可以通过 Multi-Agent 架构创建几个不同角色的 AI Agent,比如项目经理、程序员或者主管。把我们的目标告诉它们,让它们任意去想办法,我们只要在一旁听汇报,如果觉得有意见或者它们做得不对的地方,就让它们改,直到满意为止。

相比单一的 AI Agent,Multi-Agent 可以实现:

  • 可扩展性:通过增加 AI Agent 的数量来处理更大规模的问题,每个 AI Agent 处理任务的一部分,使得系统能够随着需求的增长而扩展。

  • 并行性:天然支持并行处理,多个 AI Agent 可以同时在问题的不同部分上工作,从而加速了问题解决。

  • 决策改进:通过聚合多个 AI Agent 的洞察力来增强决策制定,因为每个 AI Agent 都有自己的视角和专业知识。

随着 AI 技术的不断进步,可以想象 Multi-Agent 框架将在更多行业发挥更大的作用,并推动 AI 驱动的各类新解决方案的发展。

AI Agent 之风,吹向 Web3

迈出实验室,AI Agent 和 Multi-Agent 道阻且长。

暂且不论 Multi-Agent,即便是当下最先进的单一 AI Agent ,其需要的算力资源和计算能力在物理层面仍有明确的上限,无法做到无限扩展。一旦面临极其错综复杂、计算量密集的任务,AI Agent 无疑将会遭遇算力瓶颈,性能大打折扣。

再者,AI Agent 和 Multi-Agent 系统本质上是一种集中式的架构模式,这决定了它存在着极高的单一故障风险。更重要的是,OpenAI、微软、谷歌等公司基于闭源大模型的垄断商业模式,严重威胁独立、单一的 AI Agent 创业公司的生存环境,使得 AI Agent 无法顺利利用庞大的企业私有数据来使它们变得更聪明、更有效率。AI Agent 之间亟需民主化的协作环境,使得真正有价值的 AI Agent 得以服务更广阔的需求人群,为社会创造更大的价值。

最后,虽然与 LLM 相比,AI Agent 更贴近产业,但其发展基于 LLM,而当前大模型赛道的特点是技术门槛高、资金投入多、商业模式尚且发展不成熟,AI Agent 通常很难获得融资以持续更新迭代。

Multi-Agent 的范式是 Web3 助力 AI 的绝佳角度,已经有不少 Web3 开发团队正在这些方面投入研发提供解决方案。

深度解析Multi-Agent:Web3与AI终将相互成就?

AI Agent 和 Multi-Agent 系统通常需要大量的计算资源来进行复杂的决策和处理任务。Web3 通过区块链和去中心化技术,可以构建去中心化的算力市场,使得算力资源可以在全球范围内更加公平和高效地分配和利用。Akash、Nosana、Aethir、 IO.net 等 Web3 项目可以对 AI Agent 决策和推理提供计算能力。

传统的 AI 系统往往是集中式管理,导致 AI Agent 面临单点故障和数据隐私问题,Web3 的去中心化特性可以使得 Multi-Agent 系统更加分散和自治,每个 AI Agent 可以独立地运行在不同的节点上,自主执行用户提出的需求,增强了鲁棒性和安全性。通过 PoS、DPoS 等机制建立针对质押者、委托者的激励惩罚机制,可以促进单一 AI Agent 或 Multi-Agent 系统的民主化。

在这方面,GaiaNet、Theoriq、PIN AI、HajimeAI 都有非常前沿的尝试。

  • Theoriq 是一个服务于“AI for Web3”的项目,希望通过 Agentic Protocol 建立  AI Agents 的调用和经济系统,普及 Web3 的开发和许多功能性场景,为 Web3 dApp 提供可验证的模型推理能力。

  • GaiaNet 以节点为基础的 AI Agent 创建和部署环境,以保护专家、用户的知识产权与数据隐私为出发点,抗衡中心化的 OpenAI GPT Store。

  • HajimeAI 则在两者基础上发力 AI Agent 工作流在实际需求中的建立和针对意图本身的智能化、自动化,呼应 PIN AI 提到的“AI 智能的个性化”。

  • 同时,Modulus Labs 与 ORA Protocol 分别在 AI Agent 的 zkML 和 opML 的算法方向取得了进展。

最后,AI Agent 和 Multi-Agent 系统的开发和迭代往往需要大量的资金支持,而 Web3 可以通过前置流动性的特点帮助有潜力的 AI Agent 项目获取宝贵的早期支持。

Spectral 和 HajimeAI 均提出了支持发行链上 AI Agent 资产的产品构想:通过 IAO(Initial Agent Offering)发行代币,AI Agent 可以直接从投资者获得资金,同时成为 DAO 治理的一员,为投资者提供参与项目发展和分享未来收益的机会。其中 HajimeAI 的 Benchmark DAO 希望通过众筹加代币激励的方式,将去中心化的 AI Agent 评分和 AI Agent 资产发行有机结合起来,打造 AI Agent 依托 Web3 融资和冷启动的闭环,也是比较新颖的尝试。

AI 潘多拉魔盒已然开启,置身其中的每个人既兴奋又迷茫,热潮下是机遇还是暗礁,无人知晓。如今,各行各业都已不再是 PPT 融资时代,无论多么前沿的技术,也只有落地才能实现价值。AI Agent 的未来注定是一场漫长的马拉松, 而 Web3 正确保它不会在这场竞赛中黯然退场。

解析五大交易所上币:什么赛道最受欢迎?上币效应究竟多大?

原创 | Odaily星球日报(

作者|南枳(

解析五大交易所上币:什么赛道最受欢迎?上币效应究竟多大?

Nerio(小写)自上线币安以来,已斩获超 20 倍涨幅,一方面展现了币安的上币效应,另一方面打破了此前币安上线 VC 币后一路跌跌不休的印象。若将上线 CEX 作为终极目标和利好,哪些板块的代币最具优势?头部交易所的上币效应究竟如何?Odaily 将于本文整理自 8 月 1 日 以来头部交易所的上币情况,尝试解答上述问题。

交易所在上什么币?

本文整理了以下交易所的上币公告:

  • 币安,不计币本位市场,如 SUI 等;

  • OKX,不计盘前市场;

  • Upbit,包括韩元、BTC 和 USDT 市场

  • Bybit;

  • Coinbase 国际站(International Exchange),只上合约

得到结果如下图所示:

解析五大交易所上币:什么赛道最受欢迎?上币效应究竟多大?

结论如下:

  • 唯一能够同时在所有交易所上线的板块是 Meme;

  • 交易所覆盖品种第二多的为 TON 生态,唯有 Coinbase 完全不接触这一板块;

  • 出现频率来看,前几名分别为老币(34.2% )、Meme(23.6% )、TON(11.8% )、链游(5.3% );

  • 各 CEX 通常在短时间内不会重复上币,非首发上币等待别的 CEX 上线数月之后才会考虑,主打一个“互不接盘”。

头部交易所的上币效应

众所周知,上线币安和 Upbit 通常会有一波短期的冲高,但从能短期能上涨多高?是否能够在中长期维持这一趋势?

Odaily 对币安和 Upbit 的非 TGE 上币进行了统计,起始价取上币公告所在的 4H K 线的开盘价,公告影响的涨幅则取同一 K 线的收盘价,取 9 月 18 日 14 时的价格作为当前市值。

得到结果如下所示:

解析五大交易所上币:什么赛道最受欢迎?上币效应究竟多大?

  • 首先从涨幅来看,各代币差异非常之大,市值越大,涨幅越小。如市值最大的 PEPE 仅上涨了 6% ,市值最小的 Neiro 和 UXLINK 分别上涨了 1264% 和 101% ;

  • 从市值的净增长量来看,各代币之间的差异仍非常大,币越热门、受众越广,市值净增长量越大。例如 Meme 代币是增长量最大的板块,其中“社区”属性最强的 PEPE、POPCAT、Neiro 又分别位居前三,而 ATH(Aethir)业务主要 toC、BIGTIME 主要参与者为工作室,受众相对较小,因此增长量也不大。

  • 两个交易所新币的平均市值增长量分别为 7800 万美元和 7000 万美元,后续上新时读者可参考该市值考虑是否参与短期博弈。

  • 两个头部交易所在 8 月上线的 5 个代币,有 3 个代币市值已经比上币前更低(BRETT、PEPE、ATH),另外两个代币 POPCAT 和 PENDLE 也均有一定回落,说明头部交易所的上币效应并不持久,无法成为长期上涨的根本动力,在经历短期的 FOMO 后往往将回落原位。

Vitalik 2049 演讲全文:以太坊需要在满足需求的同时,保持开源和去中心化的价值观

整理:律动 BlockBeats

以太坊联合创始人 Vitalik Buterin 在参与 TOKEN2049 主会场首日时,发表了题为「What Excites Me About the Next Decade」(未来十年令我兴奋的事情)的主题演讲,讲述了他认为当前加密领域与以往的不同之处,并直言「当前加密领域已不再是早期阶段;现在的以太坊需要满足主流采用的需求,同时保持开源和去中心化的价值观。」以下为 Vitalik 本次演讲的原文,律动 BlockBeats 整理如下:

人们往往会说现在加密还在早期阶段,我们仍在构建基础设施。确实,像互联网这样的东西花了多长时间才实现,我认为自比特币推出以来,人们几乎一直在这样说。而我们现在面临的一个现实挑战是,今天的加密领域已经不再是早期阶段了。

以太坊作为一个项目已经存在了超过 10 年,而在比特币诞生后的这 15 年时间里,我们看到像 ChatGPT 这样的事物从完全不存在发展到突然崛起,彻底改变了人们对人工智能的理解。

因此,我们必须问自己一个问题,那就是我们究竟该如何看待这一切? 我们真的还处于早期阶段吗? 我对这个问题的回答是,我认为我们在加密领域并不是早期,但我们确实处于一个特殊的阶段。

发生了什么呢?我们可以稍微深入一下。我想起了我在 2021 年访问阿根廷的经历。这是我第一次去阿根廷。首先让我注意到的是,全国范围内有一个人口群体,他们不仅对加密货币感到无比兴奋,而且正在大规模地积极使用它。

但实际上,我在圣诞节那天四处走动,第一家我注意到开门的咖啡店。我走了进去,店主认识我,并允许我用 ETH 支付咖啡和我和朋友一起吃的甜点。但他们并没有使用去中心化技术。

这和最终让我认为,至少在初期导致「让每个人接受比特币作为货币」这件事失败的原因是一样的。就是费用。如果你还记得一开始的营销,为什么比特币如此伟大。一般会提到 PayPal 以及一些信用卡公司,他们都在费用上狠狠地宰了客户一笔。他们收取的费用非常高,简直糟糕,但是比特币本身的费用是 1 到 50 美元。

以太坊的手续费也上涨了。

我在以太坊上支付的最高费用实际上是用于隐私保护交易的。可以说,Gas 一直在上涨,每次我进行操作时,Twitter 上的评论也很多。因此,隐私协议具有非常好的市场契合度。有些交易费用大约为 800 美元。很多项目失败的原因就是费用。那么,2024 年有什么新变化呢?

Vitalik 2049 演讲全文:以太坊需要在满足需求的同时,保持开源和去中心化的价值观

这是关于以太坊奇怪现象的费用图表。费用已经从 10 美元到 0.50 美元之间下降到不足 1 美分,基本上接近于零。与此同时,OP 和 ARB 这两个主要的以太坊 Laeyr 2 已经达到了一个重要的安全里程碑,称为阶段 1,多个基于 ZK 的 Rollup 也告诉我,他们计划很快达到阶段 1。因此,Rollup 也很快会变得更安全。

费用终于变得负担得起了。但这并不是唯一改善的地方。我清楚地记得在阿根廷旅行时遇到的另一个烦恼是,我试图用以太坊主网给一个人转账,交易费用大约是 4 美元,交易确认大约花了 5 分钟。虽然这时 EIP-1559 已经上线,但这个特定的钱包实际上并没有升级。

比特币区块每 10 分钟生成一次,因此你可能需要等待 10 分钟甚至一个小时才能确认交易。而以太坊的理论区块时间是 13 秒,但由于过去 Gas 市场非常低效,有时如果运气不好,你可能需要等待一个完全随机的时间,可能是 5 分钟,甚至更长时间才能让交易被打包。EIP-1559 实际上基本解决了这个问题。

因此,实际上这两件事情让我在如今的交易确认时间稳定在 5 到 15 秒之间。如果使用具有快速免费确认的 Layer 2 解决方案,通常可以缩短到一秒钟。因此,基本上,这两个主要问题是导致 2021 年中心化用户体验远远优于去中心化用户体验的最大因素。

我们还可以简单评估应用程序的用户体验质量。你可以看到(演讲幻灯片)一个 2015 年发布的推文,是一次黑客松的演示。而在旁边,你可以看到 Firefly,这是一个用于 Farcaster 和 Twitter、Lens 的客户端。如果你观察一下用户界面的质量,这看起来和 Web2 产品的质量没什么差距,但它是一个基于去中心化的应用程序。

今年我们也看到了账户抽象方面的进展。我们看到越来越多的人使用安全工具。我们看到了 EIP-7702。我们开始看到 ZK-snarks 的主流应用,各种不同的应用程序。因此,我们有了新的、更好的隐私协议。

即使是现有的易用性改进,几年前大家还在抱怨必须手动切换网络。今天,我觉得至少在过去一年里,我实际上没有手动切换过网络。因此,技术的局限性曾是一个阻碍因素。我甚至记得那个时刻,当时 CryptoKitties 看起来可能会成为一个真正的热门应用。但后来发生了什么呢?CryptoKitties 的成功将以太坊的 Gas 价格推高到了极点。

以太坊变得基本上无法使用,这本身就限制了其增长。如今这种情况不再成立,但这基本上意味着不使用加密货币的理由已经不复存在。那么,最初进入的理由呢? 我认为人们有时犯的一个错误是将加密货币视为一种效率技术。这是很多人在十年前就谈论的事情。

让我们看看 2013 年人们如何评价比特币——接受比特币的好处包括支付更简单、对资金的安全性和控制权、零或更低的费用、保护个人身份。前四项中,有两项是我认为非常独特的加密货币特征。另两项曾经是加密货币独有的,但现在是否仍然如此呢? 如今我们有 Venmo,还有一些更好的支付方式,以及微信支付。

中心化系统在不断改善,但在某些地方仍然存在问题。

支付和融资的获取仍然非常困难。为什么它们仍然困难? 这并不是因为技术的获取问题。基本上是由于全球政治的限制。因此,我认为重要的是要记住,加密货币为世界带来的好处,并不与同类的技术改进有关。就像从常规喷气机切换到超音速喷气机是一种技术改进,但这是一种不同类型的改进。

关于技术,具体指什么样的技术呢? 一种看法是参考约什·斯塔克 (Josh Stark) 在以太坊基金会撰写的这篇博客文章,发表于大约两年前。文章标题为《Atoms, Institutions, Blockchains》。其论点是,区块链使我们能够创造一种数字上的坚固性,基本上是任何形式的社会坚固性,这使我们能够创建难以改变的持久数字结构。

而这可以抵抗被破坏,就像你可以用混凝土等材料制造坚固的物理结构一样。如果你考虑区块链与其他事物的不同之处。

一些早期的赛博朋克技术,比如混合网络、Tor、BitTorrent 等。你会意识到,区块链的核心在于创建持久且极其强大的结构。所以如果你的文件共享网络崩溃了,那也没关系,你只需切换到另一个网络。过一周,大家就会忘记。如果一个锁定机制崩溃了,而你切换到另一个,大家就会失去所有的钱。这是一个根本性的区别。

因此,区块链使互联网不仅能够绕过旧世界结构的弱点,还能够更好地构建能够解决类似问题的替代方案。

区块链就像数宇混凝土。那么数字混凝土有什么用呢? 数字混凝土是用来建造虚拟的天空城堡。那么这里谁看过电影《天空之城》? 来吧,举手如果你看过。

所以这部电影有趣的原因是,首先,我真的觉得它很棒。我认为这绝对是吉卜力工作室的杰作,我至少看过五遍。但事实证明,这部电影在某种程度上也意外地成为了以太坊的灵感来源,而我甚至没有意识到。基本上发生的事情是,在 2013 年,我在浏览维基百科上的虚构元素列表时发现了 Ethereum(以太坊)。

这听起来真是个不错的名字,让我想起了 19 世纪的一个科学理记中认为有一种介质(以太坊)渗透一切。于是我选择了「以太坊」这个名字。然后两个月后,以太坊基金会的一位设计师,在这个机构甚至还没有被称为以太坊基金会的时候,决定用这个钻石作为以太坊的标志。我当时觉得这很酷,这是我喜欢这个标志的原因,它很美。

加密货币中严肃与有趣的方面结合在一起,这是我希望人们记住的。城堡是可以保护你、保护你的家人和部落的东西。城堡也可以是迪士尼乐园中的城堡,让你的社区享受乐趣。城堡还可以是一个博物馆,保存你文化的千年历史。城堡同样可以是所有这些东西,以及各种类型的数字理事会。任何我们可以在以太坊上构建的东西。

完成数字城堡后,我们的关键目标应该是什么? 我一直以来的观点是,我们需要满足主流采用的需求,同时保持开源和去中心化的价值观。这意味着什么呢? 举个例子,钱包安全。历史上,基本上有两种方式来保管你的资金。

其中一种方法基本上就是你要采取疯狂的自我主权极端主义方式。你写下一个助记词,所有操作都离线进行。你把助记词刻在一块钛金属上,然后把钛金属放进一个更坚固的钛金属锁箱里,然后把这个锁箱埋在地下 10 米深的地方,这样你的币就安全了。这是一种方法。

另一种方法是说,我就是个普通人,我不想这么麻烦。你把币交给一个值得信赖的人,有一个「好人」叫 Sam,他和克林顿一起出席活动,他一定值得信赖。但两年后,结果证明你对谁值得信赖、谁不值得信赖的判断有点错误。所以我认为这并不是唯二的两个选择。如果你想保护自己免受中心化的恶劣行为者的影响,那么你就要采取传统的自我保护措施。

如果你是中心化交易平台,你两者都想要该怎么办?这就是多重签名智能钱包的作用。多重签名意味着你有多个密钥,例如你可能有 6 个密钥,而发送交易时需要 4 个。你甚至可以设定一个规则,对于小额交易只需要一个密钥。这些密钥可以是你能够控制的任何组合。

朋友和家人等等,你可以实际创建一个以太坊账户,这是一个智能合约钱包,只有在你生成一个证明,证明你控制着特定电子邮件地址的情况下才能发送交易,对吧。所以你基本上可以将 Web2.0 的信任锚引入 Web3.0 的世界,在 Web3.0 的世界中,你甚至可以多样化你的信任。我个人更信任我的多重签名钱包,而不是任何一个中心化账户。

例如,这是一款 Demo 钱包(PPT 内容),完全基于以太坊,但它的用户体验与 Venmo 相同。通过特殊机制,用户可以证明他们的提款来自某个存款,而不透露具体是哪一个,但可以证明他们的存款不是来自不法分子。

这是一种可以让普通用户拥有很高隐私度的方式,同时满足许多重要的合规需求,但实际上并没有后门。

你可以同时拥有隐私和信任。在以太坊主网,许多技术改进正在发生,使得 Layer 1 在减少最终确认时间、增加容量的同时,更加去中心化且易于验证。这些事情已经在发生。

这就是以太坊生态系统以及我认为整个加密货币在未来十年将要走的方向。

铭文与Memecoin:需求与Ponzi循环的炒作解析

作者:雨中狂睡 来源:substack

我个人印象最深刻的是「铭文」和「Memecoin」。

类似于这两种炒作的出现是由「需求」(即使这些需求只是伪需求或不可持续的需求)或者「Ponzi」(高收益高资本效率,源自贪婪)推动的。

一个老生常谈的话题:上个周期对 Alt-Layer1 的炒作来自于用户对高性能低费用公链的需求。DeFi Summer(Ponzi)的出现推动了用户对于以太坊区块空间的需求,而以太坊低性能和高费用(需求被创造)把大量用户推向它的竞争对手。

「需求」和「Ponzi」互相作用,又受限于周期。

比如说,DeFi 和 Alt-Layer1 的炒作是「需求」和「Ponzi」互相作用的结果。而 GameFi 是 DeFi 的升级版,把流动性挖矿包装成游戏,再兜售给链上用户。但到最后,GameFi 也没有创造出新的需求(可能只有游戏公会是受益于 GameFi 炒作的唯一赛道),受限于周期草草结束。如果 GameFi 成功创造出了新的需求,且同时出现了解决方案,那么牛市可能还会多撑几个月的时间。

@cobie 将这种叙事的炒作称为 metagame。

这个周期中,我们也看到了很多 metagame,就像我上面提到的铭文和 memecoin 炒作(还有一些转瞬即逝的 metagame,比如模块化、坎昆升级/Layer2)。

铭文和 memecoin 的炒作是这轮周期的最受欢迎的 Ponzi 玩法。简而言之,这些 Ponzi 都是不断推出新资产,然后用预期来吸引后续接盘的人。

针对铭文和 memecoin 的炒作并非空穴来风。

我个人认为,铭文的炒作背后大概率是由矿工推动的。减半前夕,矿工需要推动比特币链上活动的增长,以提升挖矿利润。换句话说,在未来,随着减半的不断进行,矿工需要通过推动比特币生态的发展,以补贴挖矿支出。可以预见的是,未来比特币生态会大量涌现新资产新玩法,新的财富机会也将随之出现。

而 memecoin 呢?

一个主流观点认为,市场热衷于炒作 memecoin 的原因是市场参与者对低流通高 FDV VC 币的厌恶和反抗。

我想要补充的是,memecoin 这波热潮更像是「天时地利人和」共同作用的结果:Solana 想要复兴,就需要链上的财富效应,用户进入 Solana 生态,Solana 才能把其他其他产品(DeFi、手机、Depin)推销给用户。Memecoin 是一个引子。

而对 VC 币的反抗运动则是将 memecoin 炒作浪潮推上了一个新的高度。

Memecoin 炒作带来了交易 memecoin 和发行 memecoin 的需求。因此,我们才得以看到 Telegram Trading Bot 和 Memecoin Launchpad 的流行。

以上这些,其实就是对过去这个周期的一个简单复盘。回顾过去后,简单和大家聊聊我对于未来 metagame 的一些预测。

预测的基础是着眼于行业主流困境和市场主流观点。

一、Alt Layer1(市场的炒作需求)

关于 Alt Layer1 的讨论主要集中于「Solana 继任者」这一话题。在社媒上,我看到了很多观点认为 $SUI 将会成为下一个 Solana。这类观点虽然屁股有点歪( $SUI 进行了大量的 OTC 交易?我不太清楚其中细节,但市场传言是这样的),但是 $SUI 确实拥有成为下一代 Alt Layer1 的潜力。

但是,我的问题是,Solana 出现问题了吗?

目前来说,还没有太大的问题(类似于以太坊在上轮周期那样),Solana 虽然偶尔会出现一些卡顿宕机,但不影响用户使用。Solana 当前的困境在于,市场对于 Solana memecoin 炒作的疲倦——链上没有足够财富效应就没有炒作预期。Pumpdotfun 在一定程度上推动了这种情况的出现。

当前还没有迹象表明 $SUI 能够接棒 Solana。

我个人认为一条链的核心是开发者,生态是吸引和留住用户的基础,Solana 在上一轮周期中已经捕获了大量的开发者,以及遗留了很多链上基础设施,这是它成功的基础,而 $SUI 还没有。

$SUI 的竞争对手还有 Fantom、 $SEI 等等链。 $SEI 最近基本面数据涨了很多(空投预期拉动数据增长),可能是为未来可能的解锁拉盘提供基本面支撑。Fantom 同样为 Sonic 链的用户提供空投。虽然都是走前人老路,但是短期内确实有效。

再聊聊其他链。

Avalanche 的方向是企业级采用(子网)和 RWA。市场对于 RWA 的预期会随着降息的开始而降低,企业级采用我们在这里要打一个问号。Avalanche 的炒作不在于用户的多少,而在于市场注意力。吸引市场注意力的手段可以是频繁地发布利好,以抬高市场的预期。

Berachain 与其他链的一个重要区别在于,PoL 之于用户感知是很明显的,它会在各种层面上推动用户与验证者、项目方进行博弈,而其他链的共识机制创新对用户而言都是无感的,用户可能只会觉得,这是另外一条更快更便宜的 Layer1。这也是 Berachain 比较好玩的一点,加上 Berachain 的社区做得很好,因此可以预见的是,在 Berachain 主网上线后,话题度和市场注意力不会少,而 PA 会受此影响。

二、流动性碎片化(市场的真实需求)

在我看来,解决流动性碎片化的方案无非以下几种:

  • 链抽象/意图抽象

  • 共享流动性

  • 跨链/互操作性

不管是什么抽象,简单理解就是:制造一个前端,用户只需要在这个前端就能够无缝使用各链的产品,实现他们的某种意图。Uniswap v4 的推出可能会是这类基础设施炒作的契机。但真正的大规模炒作可能还是要等到流动性&用户的大规模进入(牛市中后期),说白了就是链上还不够活跃,用户数量决定需求的规模。

而共享流动性就是字面意思,把流动性都放在一起,统一为其他产品提供流动性。但共享流动性无法解决用户体验的问题。对这类产品的需求往往体现在 B 端,而非 C 端。我个人很难看到针对这类赛道的炒作可能性——除非是基本面数据良好+构建基础市场认知+针对某一个项目的 CT 大规模喊单。

跨链我就不聊了,已经有很多人在说。

三、购买 BTC 以及持有 BTC(市场的真实需求)

在这一周期我们可能会看到从「机构的买入+持有」上升到「国家的买入+持有」的趋势转变。那么交易场所可能会随着此类需求的推动而变得更加重要。相关标的包括 $BNB $COIN 等。

以及,我们当前已经看到更多的国家正在通过挖矿来持有 BTC,对能源相关标的的炒作大概率也会发生(无法预测时间)。

四、AI(市场的炒作需求)

关于 AI 的炒作我们已经见过很多次。包括 OpenAI 的不断推陈出新、英伟达财报等都给予了市场充足的炒作预期。我个人认为,AI 炒作的关键在于交易场所,在流动性充裕的场所交易的 AI 标的潜力要大于其他标的。而交易场所的好坏同样取决于对应标的的背景。

五、新 Ponzi

新 Ponzi 的玩法很难预测。

目前市场注意力还是集中在 memecoin 和 BTC 生态。BTC 生态强,memecoin 就相对弱。在这个周期,大家都热衷于对新发行资产的炒作上,但类似 DeFi 和 GameFi 那样的 Ponzi 并没有出现。总有一天,市场会厌倦对新资产的炒作,并将注意力放到拥有真实收入的项目上,比如 $BANANA ,或者全流通+强大基本面的项目上,比如 $UNI $LDO 。

六、最后

Metagame 是我借用 cobie 在 21 年提出的概念。对于未来可能会出现的炒作,我同样是雾里看花,在其出现苗头前,没有人能明确地预测出下一个叙事级机会在哪个赛道。

OKX Token2049速递:首席营销官Haider揭秘OKX钱包全新升级的五个关键细节

• 扩展了代币发现功能,每周新增 120, 000 个代币

• 新界面更新了链上交易功能,可以在任何链上交换任何代币

• 在 Token 2049 新加坡的炉边谈话中,OKX 首席营销官 Haider Rafique 和 F 1 赛车手 Lando Norris 揭晓了重新设计和改进的内容

9 月 18 日,Web3 科技公司 OKX 揭晓了改版本后的钱包产品,这次的改进主要包括全新界面、扩展的代币发现功能,支持数百万种加密货币和收藏品,以及支持访问超 100+公链和数千个 DeFi 产品。

此次升级在 Token 2049 新加坡的炉边谈话中宣布,活动中 OKX 首席营销官 Haider Rafique 和 F 1 赛车手 Lando Norris 讨论了技术、赛车运动和链上世界的交汇点,强调了创新和新技术被采用的重要性。

改版后 OKX 钱包的关键细节包括:

• 改良后的界面:新布局体验更丝滑,简化了资产管理、代币交换和发现,为用户提供了通往多样化链上生态系统的安全高效的入口。

• 升级的代币发现页面:新的代币页面允许钱包持有者探索超一百万种不同类型的代币,包括 Solana、Base、Tron 和 BNB 等网络上的流行 memecoin,并且可定制的排序选项; OKX 钱包的 DEX 每周添加约 120, 000 个代币 。

• 更新的 Marketplace:简化的用户体验,使用户能够发现并购买超过三百万种数字收藏品,包括比特币 Ordinals。

• 超快 DEX:钱包 DEX 现在提供行业领先的报价响应时间和交易速度,以大约 50 毫秒的平均响应时间从近 500 个去中心化交易所检索和聚合价格

• 优化的导航页面:直观的分类提升了整体体验,第三方 DeFi 协议聚合器现可在“Discover”板块轻松访问。

改版后的 OKX 钱包作为统一的自托管门户,提供跨 100 多个网络的链上体验,包括比特币、以太坊、Solana 和 TON 等主流公链。在此用户体验更新中,透明度和安全性仍然至关重要,其中对超过 100 万种代币和数千种 DeFi 产品进行了风险评估。 OKX 钱包对安全的承诺最近得到了全球领先的 Web3 安全公司 CertiK 的认可,并将其评为全球网络安全领域顶级的链上钱包。

2024 年初以来,OKX 钱包已新增对 20 个公链的支持。此外,全球已有 8300 万人下载了 OKX 应用程序,这凸显了对精简、移动优化设计的需求。

如需更多信息,请联系:  Media@okx.com

关于 OKX

OKX 是一家科技公司,致力于全球区块链基础设施建设,使其更具可访问性和实用性。

我们希望创造一个更加高效、透明和互联的未来。

OKX 最初是一家加密货币交易所,为数百万用户提供交易机会,并逐渐成为全球最大的交易平台之一。近年来,我们开发了多链钱包,供数百万用户访问去中心化应用(dApps)。

OKX 是众多大型机构信赖的品牌,他们通过一个可靠的平台无缝连接全球金融系统,获取加密市场的访问权。

我们最知名的产品包括:OKX 交易所、OKX 钱包, OKX Marketplace, OKX Explorer, OKX Chain 开发者操作系统、OKX Ventures 以及 OKX 机构服务。想了解更多关于 OKX 的信息,请下载我们的应用程序或访问:okx.com

AI×DePin:智能基础设施的协同进化


引言

去中心化物理基础设施网络(DePIN)是一种将区块链技术与物联网(IoT)相结合的前沿概念,正在逐步引起行业内外的广泛关注。DePIN 通过去中心化的架构重新定义了物理设备的管理和控制模式,展现出在传统基础设施领域(如电网和废物管理系统)引发颠覆性变革的潜力。传统基础设施项目长期以来受到政府和大型企业的集中控制,通常面临高昂的服务成本、不一致的服务质量以及创新受限等问题。DePin 提供了一种全新的解决方案,旨在通过分布式账本和智能合约技术,实现物理设备的去中心化管理与控制,进而提升系统的透明度、可信度和安全性。

Depin 的功能与优势

  • 去中心化管理与透明性: DePIN 通过区块链技术的分布式账本和智能合约,实现了物理设备的去中心化管理,使得设备的所有者、用户及相关利益方能够通过共识机制验证设备的状态和操作。这不仅提高了设备的安全性和可靠性,还确保了系统的操作透明性。例如,在虚拟电厂(Virtual Power Plant, VPP)领域,DePIN 能够公开并透明化插座的溯源数据,使用户能够清晰了解数据的生产和流通过程。

  • 风险分散与系统连续性: 通过将物理设备分布到不同的地理位置和多方参与者手中,DePIN 有效降低了系统的中心化风险,避免了单点故障对整个系统的影响。即使某一节点发生故障,其他节点仍能继续运行并提供服务,保障了系统的连续性和高可用性。

  • 智能合约自动化操作: DePIN 利用智能合约实现设备操作的自动化,从而提高了操作效率和准确性。智能合约的执行过程在区块链上是完全可追溯的,每一步操作均被记录,允许任何人验证合约的执行情况。这种机制不仅提高了合约执行的效率,还增强了系统的透明性与可信性。

DePIN 的五层架构分析

概述

尽管云端设备通常具有高度中心化的特性,但 DePIN(去中心化物理基础设施网络)通过多层模块化技术栈的设计,成功模拟了中心化的云计算功能。其架构包括应用层、治理层、数据层、区块链层和基础设施层,每一层都在整个系统中发挥着关键作用,以确保网络的高效、安全和去中心化运作。以下将对这五层架构进行详细分析。

应用层(Application Layer)

  • 功能:应用层是 DePIN 生态系统中直接面向用户的部分,负责提供各种具体的应用和服务。通过这一层,底层的技术和基础设施被转化为用户可以直接使用的功能,如物联网(IoT)应用、分布式存储、去中心化金融(DeFi)服务等。

  • 重要性:

  • 用户体验:应用层决定了用户与 DePIN 网络的交互方式,直接影响用户体验和网络的普及程度。

  • 多样性和创新:该层支持多种应用,有助于生态系统的多样性和创新发展,吸引不同领域的开发者和用户参与。

  • 价值实现:应用层将网络的技术优势转化为实际价值,推动了网络的持续发展和用户的利益实现。

治理层(Governance Layer)

  • 功能:治理层可在链上、链下或以混合模式运行,负责制定和执行网络规则,包括协议升级、资源分配和冲突解决等。通常采用去中心化治理机制,如 DAO(去中心化自治组织),确保决策过程的透明、公平和民主。

  • 重要性:

  • 去中心化决策:通过分散决策权,治理层减少了单点控制风险,提高了网络的抗审查性和稳定性。

  • 社区参与:该层鼓励社区成员的积极参与,增强用户的归属感,促进网络的健康发展。

  • 灵活性和适应性:有效的治理机制使网络能够快速应对外部环境的变化和技术进步,保持竞争力。

数据层(Data Layer)

  • 功能:数据层负责管理和存储网络中的所有数据,包括交易数据、用户信息和智能合约。它确保数据的完整性、可用性和隐私保护,同时提供高效的数据访问和处理能力。

  • 重要性:

  • 数据安全:通过加密和去中心化存储,数据层保护用户数据免受未经授权的访问和篡改。

  • 可扩展性:高效的数据管理机制支持网络扩展,处理大量并发数据请求,确保系统的性能和稳定性。

  • 数据透明性:公开透明的数据存储增加了网络的信任度,使用户能够验证和审计数据的真实性。

区块链层(Blockchain Layer)

  • 功能:区块链层是 DePIN 网络的核心,负责记录所有交易和智能合约,确保数据的不可篡改性和可追溯性。该层提供去中心化的共识机制,如 PoS(权益证明)或 PoW(工作量证明),保障网络的安全和一致性。

  • 重要性:

  • 去中心化信任:区块链技术消除了对中心化中介的依赖,通过分布式账本建立信任机制。

  • 安全性:强大的加密和共识机制保护网络免受攻击和欺诈,维护系统的完整性。

  • 智能合约:区块链层支持自动化和去中心化的业务逻辑,提升了网络的功能性和效率。

基础设施层(Infrastructure Layer)

  • 功能:基础设施层包括支撑整个 DePIN 网络运行的物理和技术基础设施,如服务器、网络设备、数据中心和能源供应等。该层确保网络的高可用性、稳定性和性能。

  • 重要性:

  • 可靠性:坚实的基础设施保障网络的持续运行,避免因硬件故障或网络中断导致的服务不可用。

  • 性能优化:高效的基础设施提升了网络的处理速度和响应能力,改善了用户体验。

  • 可扩展性:灵活的基础设施设计允许网络根据需求进行扩展,支持更多用户和更复杂的应用场景。

连接层(Connection Layer)

在某些情况下,人们会在基础设施层和应用层之间增加一个连接层,该层负责处理智能设备与网络之间的通信。连接层可以是中心化的云服务,也可以是去中心化的网络,支持多种通信协议,如 HTTP(s)、WebSocket、MQTT、CoAP 等,以确保数据的可靠传输。

AI 如何改变 DePin

智能管理与自动化

  • 设备管理与监控:AI 技术使得设备管理和监控变得更加智能化和高效。在传统的物理基础设施中,设备的管理和维护往往依赖于定期检查和被动维修,这不仅成本高昂,而且容易出现设备故障而未及时发现的问题。通过引入 AI,系统可以实现以下几方面的优化:

  • 故障预测与预防:机器学习算法能够通过分析设备的历史运行数据和实时监控数据,预测设备可能出现的故障。例如,通过对传感器数据的分析,AI 可以提前检测到电网中的变压器或发电设备可能出现的故障,提前安排维护,避免更大范围的停电事故。

  • 实时监控与自动报警:AI 可以对网络中所有设备进行 24/7 的实时监控,并在检测到异常时立即发出警报。这不仅包括设备的硬件状态,还包括其运行性能,如温度、压力、电流等参数的异常变化。例如,在去中心化的水处理系统中,AI 可以实时监控水质参数,一旦发现污染物超标,立即通知维护人员进行处理。

  • 智能维护与优化:AI 能够根据设备的使用情况和运行状态,动态调整维护计划,避免过度维护和不足维护。例如,通过分析风力发电机的运行数据,AI 可以确定最优的维护周期和维护措施,提高发电效率和设备寿命。

  • 资源分配与优化:AI 在资源分配和优化方面的应用可以显著提高 DePin 网络的效率和性能。传统的资源分配往往依赖于人工调度和静态规则,难以应对复杂多变的实际情况。AI 可以通过数据分析和优化算法,动态调整资源分配策略,实现以下目标:

  • 动态负载平衡:在去中心化计算和存储网络中,AI 可以根据节点的负载情况和性能指标,动态调整任务分配和数据存储位置。例如,在一个分布式存储网络中,AI 可以将访问频率较高的数据存储在性能较好的节点上,同时将访问频率较低的数据分布在负载较轻的节点上,提高整个网络的存储效率和访问速度。

  • 能效优化:AI 可以通过分析设备的能耗数据和运行模式,优化能源的生产和使用。例如,在智能电网中,AI 可以根据用户的用电习惯和电力需求,优化发电机组的启停策略和电力的分配方案,降低能耗,减少碳排放。

  • 资源利用率提升:AI 能够通过深度学习和优化算法,最大化资源的利用率。例如,在去中心化物流网络中,AI 可以根据实时交通情况、车辆位置和货物需求,动态调整配送路径和车辆调度方案,提高配送效率,降低物流成本。

数据分析与决策支持

  • 数据收集与处理:在去中心化物理基础设施网络(DePin)中,数据是核心资产之一。DePin 网络中的各种物理设备和传感器会持续产生大量数据,这些数据包括传感器读数、设备状态信息、网络流量数据等。AI 技术在数据收集与处理方面展现出显著优势:

  • 高效数据收集:传统的数据收集方法可能面临数据分散、数据质量不高等问题。AI 通过智能传感器和边缘计算,可以在设备本地实时收集高质量的数据,并根据需求动态调整数据收集频率和范围。

  • 数据预处理与清洗:原始数据通常包含噪声、冗余和缺失值。AI 技术可以通过自动化的数据清洗和预处理,提升数据质量。例如,利用机器学习算法检测并修正异常数据,填补缺失值,从而确保后续分析的准确性和可靠性。

  • 实时数据处理:DePin 网络需要对海量数据进行实时处理和分析,以快速响应物理世界的变化。AI 技术,特别是流式处理和分布式计算框架,使得实时数据处理成为可能。

  • 智能决策与预测:在去中心化物理基础设施网络(DePin)中,智能决策与预测是 AI 应用的核心领域之一。AI 技术通过深度学习、机器学习和预测模型,可以实现复杂系统的智能决策和精确预测,提高系统的自主性和响应速度:

  • 深度学习与预测模型:深度学习模型能够处理复杂的非线性关系,并从大规模数据中提取潜在模式。例如,通过深度学习模型分析设备的运行数据和传感器数据,系统可以识别出潜在的故障征兆,提前进行预防性维护,减少设备停机时间,提高生产效率。

  • 优化与调度算法:优化与调度算法是 AI 在 DePin 网络中实现智能决策的另一个重要方面。通过优化资源分配和调度方案,AI 可以显著提高系统效率,降低运营成本。

安全性

  • 实时监控与异常检测:在去中心化物理基础设施网络(DePin)中,安全性是一个至关重要的因素。AI 技术可以通过实时监控和异常检测,及时发现和应对各种潜在的安全威胁。具体而言,AI 系统可以实时分析网络流量、设备状态和用户行为,识别异常活动。例如,在去中心化通信网络中,AI 可以监控数据包的流动,检测异常流量和恶意攻击行为。通过机器学习和模式识别技术,系统可以迅速识别并隔离受感染的节点,防止攻击的进一步扩散。

  • 自动化威胁响应:AI 不仅能够检测威胁,还能自动化地采取响应措施。传统的安全系统往往依赖人为干预,而 AI 驱动的安全系统可以在威胁检测到后立即采取行动,减少响应时间。例如,在去中心化能源网络中,如果 AI 检测到某个节点存在异常活动,可以自动切断该节点的连接,启动备用系统,确保网络的稳定运行。此外,AI 可以通过不断学习和优化,提高威胁检测和响应的效率和准确性。

  • 预测性维护和防护:通过数据分析和预测模型,AI 可以预测潜在的安全威胁和设备故障,提前采取防护措施。例如,在智能交通系统中,AI 可以分析交通流量和事故数据,预测可能的交通事故高发区域,提前部署应急措施,减少事故发生的概率。类似地,在分布式存储网络中,AI 可以预测存储节点的故障风险,提前进行维护,确保数据的安全性和可用性。

DePin 如何改变 AI

DePin 在 AI 中的应用优势

  • 资源共享与优化:DePin 允许不同实体之间共享计算资源、存储资源和数据资源。这对于 AI 训练和推理需要大量计算资源和数据的场景尤为重要。去中心化的资源共享机制能够显著降低 AI 系统的运营成本,提高资源利用率。

  • 数据隐私与安全:在传统的集中式 AI 系统中,数据往往集中存储在某个中央服务器上,存在数据泄露和隐私问题。DePin 通过分布式存储和加密技术,保证了数据的安全性和隐私性。数据持有者可以在保留数据所有权的情况下,与 AI 模型共享数据,进行分布式计算。

  • 增强的可靠性和可用性:通过去中心化的网络结构,DePin 提高了 AI 系统的可靠性和可用性。即使某个节点出现故障,系统仍能继续运行。去中心化的基础设施减少了单点故障的风险,提高了系统的弹性和稳定性。

  • 透明的激励机制:DePin 中的代币经济学为资源提供者和用户之间的交易提供了透明、公正的激励机制。参与者可以通过贡献计算资源、存储资源或数据来获得代币奖励,形成一个良性循环。

DePin 在 AI 中的潜在应用场景

  • 分布式 AI 训练:AI 模型训练需要大量的计算资源。通过 DePin,不同的计算节点可以协同工作,形成一个分布式的训练网络,显著加快训练速度。例如,去中心化的 GPU 网络可以为深度学习模型提供训练支持。

  • 边缘计算:随着物联网(IoT)设备的普及,边缘计算成为 AI 发展的重要方向。DePin 可以将计算任务分配到靠近数据源的边缘设备上,提高计算效率和响应速度。例如,智能家居设备可以利用 DePin 实现本地化的 AI 推理,提升用户体验。

  • 数据市场:AI 模型的性能依赖于大量高质量的数据。DePin 可以建立一个去中心化的数据市场,使数据提供者和使用者能够在保障隐私的前提下进行数据交易。通过智能合约,数据交易过程透明且可信,保证数据的真实性和完整性。

  • 去中心化的 AI 服务平台:DePin 可以作为基础设施,为去中心化的 AI 服务平台提供支持。例如,一个去中心化的 AI 图像识别服务平台,用户可以上传图像,平台通过分布式计算节点进行处理并返回结果。这种平台不仅提高了服务的可靠性,还能通过代币机制激励开发者不断优化算法。

AI + DePin 项目

在本节中,我们将探讨几个与 AI 相关的 DePin 项目,重点介绍去中心化文件存储与访问平台 Filecoin、去中心化 GPU 算力租赁平台 Io.net,以及去中心化 AI 模型部署与访问平台 Bittensor。这三者分别在 AI 领域中担任了数据存储访问、算力支持训练和模型部署使用的重要角色。

Filecoin

Filecoin 是一个去中心化的存储网络,通过区块链技术和加密货币经济模型,实现全球范围内的分布式数据存储。由 Protocol Labs 开发,Filecoin 旨在创建一个开放且公共的存储市场,用户可以通过支付 Filecoin 代币(FIL)在网络中购买存储空间,或通过提供存储服务来赚取 FIL。

功能

  • 去中心化存储:Filecoin 通过去中心化的方式存储数据,避免了传统云存储的集中化弊端,如单点故障和数据审查风险。

  • 市场驱动:Filecoin 的存储市场由供需关系决定,存储价格和服务质量通过自由市场机制动态调整,用户可以根据需求选择最优的存储方案。

  • 可验证存储:Filecoin 通过时空证明(Proof-of-Spacetime, PoSt)和复制证明(Proof-of-Replication, PoRep)等机制,确保数据在存储提供者处得到有效存储和备份。

  • 激励机制:通过挖矿和交易奖励机制,Filecoin 鼓励网络参与者提供存储和检索服务,从而增加网络的存储容量和可用性。

  • 可扩展性:Filecoin 网络通过引入分片等技术手段,支持大规模数据存储和快速访问,满足未来海量数据增长的需求。

解决的痛点

  • 数据存储成本高昂:通过 Filecoin 的去中心化存储市场,用户可以更灵活地选择存储提供者,降低数据存储成本。

  • 数据安全和隐私问题:去中心化存储和加密技术确保数据的私密性和安全性,减少了因集中化存储带来的数据泄露风险。

  • 数据存储的可靠性:Filecoin 提供的时空证明和复制证明机制确保数据在存储过程中的完整性和可验证性,提升了数据存储的可靠性。

  • 传统存储平台的信任问题:Filecoin 通过区块链技术实现存储透明化,消除第三方机构对数据的垄断和操控,增强了用户对存储服务的信任。

目标用户

  • 存储提供者:通过提供闲置磁盘空间接入平台,响应用户的存储请求并赚取代币。存储提供者需要质押代币,如果无法提供有效的存储证明,则会受到惩罚,失去部分质押代币。

  • 文件检索者:当用户需要访问文件时,检索文件所在位置以赚取代币。文件检索者无需质押代币。

  • 数据存储者:通过市场机制,提交愿意支付的价格,匹配到存储者后将数据发给存储者。双方签署交易订单并提交到区块链。

  • 数据使用者:用户通过提交唯一的文件标识符及支付价格,文件检索者将找到文件所在存储位置,响应存储请求并提供数据。

代币经济体系

  • FIL 代币的流通:FIL 是 Filecoin 网络中的原生加密货币,用于支付存储费用、奖励矿工以及在网络中进行交易。FIL 代币的流通维持了 Filecoin 网络的正常运行。

  • 存储矿工及检索矿工的奖励:存储提供者通过提供存储空间和数据检索服务来赚取 FIL 代币。矿工的奖励与他们提供的存储空间、数据的访问频率以及参与网络共识的贡献相关。

  • 网络费用:用户需要支付 FIL 代币来购买存储和检索服务,费用由存储市场的供需关系决定,用户可以在市场中自由选择适合的服务提供商。

  • 代币发行和通胀:Filecoin 的总供应量为 20 亿,新的 FIL 代币通过挖矿奖励逐渐发行。随着矿工数量的增加,网络的通胀率会逐渐下降。

Io.net

Io.net 是一个分布式 GPU 计算平台,通过收集并集群化闲置算力,为市场提供算力调度和临时补充,而非替代现有的云计算资源。平台允许供应商通过简单的 Docker 指令部署支持的硬件供用户租用,以满足任务分发与处理的需求。Io.net 通过分布式算力共享的模式,期望提供接近云计算平台的效果,同时显著降低服务成本。

功能

  • 简易部署:供应商可以通过 Docker 指令轻松部署硬件,用户则可以通过平台便捷地租用硬件集群,获得所需算力。

  • 集群化算力:通过集群化闲置算力,平台作为市场算力的调度与临时补充,提升了整体计算资源的利用率。

  • 安全传输与上链存储:平台采用端对端加密技术,保障用户资料安全。同时,任务执行信息会被上链存储,实现日志的透明和永久保存。

  • 节点健康度监控:平台记录并公开每个节点的健康状态,包括离线时间、网络速度及执行任务情况,以确保系统的稳定性和可靠性。

解决的痛点

  • 算力不足:由于大模型的兴起,市场对训练时所需 GPU 算力的需求剧增。Io.net 通过整合民间闲置 GPU 资源,填补了这一算力缺口。

  • 隐私与合规性:大型云平台服务商如 AWS 和 Google Cloud 对用户有严格的 KYC 要求,而 Io.net 通过去中心化方式规避了合规性问题,用户可以更灵活地选择使用资源。

  • 成本高昂:云计算平台的服务价格较高,而 Io.net 通过分布式算力共享显著降低成本,同时通过集群化技术实现接近云平台的服务质量。

目标用户

  • 算力提供者:将闲置的 GPU 接入平台供他人使用。根据所提供设备的性能及稳定性,可以获得代币奖励。

  • 算力使用者:通过消费代币租用 GPU 或 GPU 集群,用于任务提交或大模型训练。

  • 质押者:质押者通过质押平台代币以支持平台的长期稳定运转,从设备租赁中获取质押收益,这有助于提升优良设备的排名。

代币经济体系

  • 代币使用:平台内所有交易均使用原生代币$IO,以减少智能合约中的交易摩擦。用户和供应商可以使用 USDC 或$IO 支付,但使用 USDC 需要支付 2% 的服务费。

  • 代币总供应:$IO 最大供应量为 8 亿个,上线时发行 5 亿个,其余 3 亿个用于奖励供应商和质押者。代币将在 20 年内逐步释放,第一年从总量的 8% 开始,每月递减 1.02% 。

  • 代币销毁:平台收入的一部分将用于回购并销毁$IO,费用来源包括双边 0.25% 的预定费及使用 USDC 付款收取的 2% 服务费。

  • 代币分配:代币将分配给种子轮投资者、A 轮投资者、团队、生态与社区以及供应商奖励。

Bittensor (TAO)

Bittensor 是一个去中心化的点对点 AI 模型市场,旨在通过让不同的智能系统相互评价和奖励,促进 AI 模型的生产与流通。Bittensor 通过分布式架构,创建了一个能够持续生产新模型并对贡献者进行信息价值奖励的市场。该平台为研究者和开发者提供了一个部署 AI 模型的平台,以赚取收益;而用户则可以通过该平台使用各种 AI 模型和功能。

功能

  • 分布式市场:Bittensor 建立了一个去中心化的 AI 模型市场,允许工程师和小型 AI 系统直接变现他们的工作,打破了大型公司对 AI 的垄断。

  • 标准化与模块化:网络支持多种模式(如文本、图像、语音),允许不同 AI 模型进行交互和知识共享,并能够扩展至更复杂的多模态系统。

  • 系统排名:每个节点根据其在网络中的贡献进行排名,贡献衡量标准包括节点对任务的执行效果、其他节点对其输出的评价以及其在网络中获得的信任度。排名较高的节点将获得更多的网络权重和奖励,激励节点在去中心化市场中持续提供高质量服务。这种排名机制不仅确保了系统的公平性,还提高了网络整体的计算效率和模型质量。

解决的痛点

  • 智能生产的集中化:目前的 AI 生态集中于少数几家大公司,独立开发者难以变现。Bittensor 通过点对点的去中心化市场,为独立开发者和小型 AI 系统提供了直接获利的机会。

  • 计算资源利用率低下:传统的 AI 模型训练依赖单一任务,无法充分利用多样化的智能系统。Bittensor 允许不同类型的智能系统互相协作,提高计算资源的利用效率。

目标用户

  • 节点运营者:将算力和模型接入 Bittensor 网络,通过参与任务处理和模型训练获得代币奖励。节点运营者可以是独立开发者、小型 AI 公司,甚至个人研究者,通过提供高质量的计算资源和模型来提升在网络中的排名和收益。

  • AI 模型使用者:需要 AI 计算资源和模型服务的用户,通过支付代币租用 Bittensor 网络中的计算能力和智能模型。使用者可以是企业、科研机构或个人开发者,他们利用网络中的高质量模型完成特定任务,如数据分析、模型推理等。

  • 质押者:持有 Bittensor 代币的用户通过质押支持网络的长期稳定运行,并获得质押奖励。质押者不仅能从网络的通货膨胀中获益,还能通过质押来提升自己支持的节点排名,从而间接影响网络整体的计算效率和收益分配。

代币经济体系

  • 代币用途:Bittensor 网络内的所有交易和激励均通过原生代币进行,减少了交易过程中的摩擦。用户可以使用代币支付计算资源和模型服务的费用,节点运营者则通过提供服务赚取代币。

  • 代币产生:每 12 秒出一个区块,产生 1 个 TAO 代币,根据子网的表现及其中节点的表现进行分配。代币的分配比例为: 18% 分配给子网所有者,子网矿工和验证者各获得 41% 。代币的最大供应量为 2100 万。

DePin 面临的挑战与结论

DePIN 作为一种新兴的网络架构,通过结合区块链技术,实现了物理基础设施的去中心化管理。这一创新不仅解决了传统基础设施面临的数据隐私、服务中断以及高扩展成本等问题,还通过代币激励机制和自组织模型,赋予网络参与者更多的控制权和参与度。尽管 DePIN 展示了强大的潜力,但依然面临一些挑战。

  • 可扩展性:DePIN 的可扩展性问题源于其依赖区块链技术的去中心化特性。随着用户数量和网络规模的增加,区块链网络上的交易量也会随之增加,特别是 DePIN 应用与物理世界的连接,需要更高的信息传输要求。这会导致交易确认时间延长以及交易费用增加,进而影响整体网络的效率和用户体验。

  • 互操作性:DePIN 生态系统建立在多个区块链之上,这要求 DePIN 应用能够支持同质或异质状态转换,并实现与其他区块链网络的无缝互操作性。然而,当前的互操作性解决方案通常限于特定区块链生态系统或伴随着高昂的跨链成本,难以全面满足 DePIN 的需求。

  • 法规合规性:作为 Web 3.0 生态系统的一部分,DePIN 面临多重监管挑战。其去中心化和匿名性特性使得监管机构难以监控资金流动,可能导致非法集资、传销和洗钱活动的增加。此外,税收监管方面,由于账户的匿名性,政府难以收集税收所需的证据,这对现有税收系统构成了挑战。

未来,DePIN 的发展将取决于这些关键问题的解决,并有望在广泛的应用场景中发挥重要作用,重塑物理基础设施的运作模式。

后空投时代思考:是时候建立长期价值驱动的模式了

原文作者:

原文编译:zhouzhou,BlockBeats

编者按:空投曾是推动加密项目发展的重要工具,但随着时间推移,它们逐渐暴露出短期投机的弊端,难以维持用户和开发者的长期忠诚度。许多项目依赖空投和资助计划,吸引的却是迅速流失的「热钱」。未来,区块链项目应聚焦于构建长期、价值驱动的模式,激励用户和开发者持续参与和贡献,以实现更稳定的生态系统发展。

我们是时候应该专注于构建能够确保用户和开发者忠诚度的长期、价值驱动的模式了。

后空投时代思考:是时候建立长期价值驱动的模式了

经过十多年的加密货币初创企业运营,我准备宣布一个范例式的转变:空投已经走到尽头,开发者奖励计划也很可能面临同样的命运。

因此,区块链项目必须转变思路,不再依赖短期的激励措施,而是应着眼于构建长期、以价值为导向的模式,从而确保用户和开发者的忠诚度。如果不采取这样的转变,整个行业将面临发展的停滞,甚至衰退。

空投最早在 2020 年走向主流,当时 Uniswap 去中心化交易所向每个与其平台互动过的钱包分发了 400 个 UNI 代币。这一策略旨在通过让用户获得项目的财务权益来推动平台的广泛采用,而且确实取得了成功。紧随其后,其他项目纷纷效仿,空投迅速成为 DeFi 社区的普遍期望。

然而,空投也带来了一些意想不到的负面影响。例如,「空投农耕」现象日益严重,即用户创建多个账户或进行最低限度的操作,仅仅是为了获得代币分配。更糟糕的是,这些机会主义者通常在领取奖励后迅速离开项目,导致用户活跃度和代币价值的快速下滑。结果,空投不仅未能培养出长期忠诚的用户,反而成为短暂投机收益的代名词。

以 Layer-2 扩容解决方案 Blast 为例。今年 6 月,Blast 向早期用户发放了 170 亿新发行的 BLAST 代币,希望借此吸引用户和资本。然而,结果并不理想,许多接收者对他们获得的少量奖励感到失望,链上数据也显示,不少用户在领取代币后很快就离开了平台。BLAST 的价格在数小时内下跌了 20% ,因为许多用户迅速抛售了代币。更引人注目的是,该协议的总锁仓价值(空投旨在吸引的资本)在空投前的一个月内已经下降了超过 33% 。存款用户在获取收益后迅速离开了平台。

空投不仅没有在吸引用户之后留住他们,反而成为「热钱」的目标——这些用户收取奖励后便迅速离开,寻找下一个机会。据 CoinMetrics 的最新研究显示,三分之二的空投代币自发行以来就已经贬值。持有至今的空投代币的中位回报率为 -61% 。

这不仅仅是开发者面临的问题,而是整个系统性的问题。依赖短期激励的网络往往吸引的是短暂的用户和开发者,他们来得快,去得也快。这种频繁的流失削弱了网络的稳定性,并侵蚀了整个 DeFi 生态系统中的信任。

区块链的资助计划也面临类似的挑战,虽然这些资助在最初阶段帮助了新平台的启动,但它们的效果如同空投一样短暂。开发者经常在多个区块链之间跳跃,将其服务复制到多个环境中以寻求资助,但却难以在任何单一平台上建立长期项目。这种「建设者困境」不仅影响开发者,还使各大网络难以维持稳定且忠诚的社区。

这些激励模式的不稳定性导致了繁荣 – 萧条的周期,使得开发者难以预测未来的活动和收入。开发者往往投入大量资源到项目中,最终由于资助流程的不可预测性和频繁的政治化,仅能获得承诺的一小部分。这与资助计划的初衷相悖,也违背了加密行业在技术和道德层面上所提倡的开放访问和可组合性的目标。

CoinMetrics 在其报告中指出,空投可能会在短期内提升协议的使用率,但是否能够创造真正的、可持续的长期增长仍有待观察。基于目前大多数空投和资助计划的运作方式,没有理由相信短期激励能够突然开始创造长期的采用、流动性或正向的代币价格走势。

空投和资助激励在 2020 年至 2022 年期间确实是启动项目的绝佳工具。然而,这段时期已经过去。虽然它们仍将在更广泛的生态系统中扮演一定的角色,但还想单凭这些工具就能够真正推动采用和增长的时代已经结束了。

在后 Blast 时代,潜在的「空投农民」将更加怀疑空投的价值。相应地,那些实力较弱的项目将更加快速地经历繁荣与衰退的循环,进一步让「空投」从一种诱人的噱头变成一个负面词汇。

那么,解决方案是什么?区块链项目必须超越这些短暂的激励,专注于建立长期、价值驱动的模式,使所有参与者的利益相一致。这意味着开发一种系统,不仅要奖励用户和开发者的到来,更重要的是奖励他们长期留在生态系统中并为其增长做出贡献。

无论你是存款者还是开发者,你很快就能做出选择。你可以选择一次性获得报酬,数额不确定,并且该代币很可能在下周贬值 30% ;或者,你可以根据网络的实际表现和你对其积极贡献的大小,持续获得报酬,只要你愿意,就能不断得到回报。

距离 Uniswap 首次亮相已有近五年,空投和资助已不再足够,我们是时候该建立真正能够长期运作的协议了。

为什么IBM的市值只有微软的十六分之一?

我平时的一个主要学习方式(以及爱好)是读财报。

上市公司每个季度的财报披露,包括公告、新闻稿和分析师电话会议纪要,向我们提供了大量的财务信息和业务信息,是一个不容忽视的知识宝库。最近两年,因为港股和中概股实在没法看,我的大部分时间花在读美股科技股财报上——包括微软、苹果、英伟达等市值最大的公司,也包括IBM这样在某些垂类具备巨大影响力的公司。

在我读中学的时候(也就是第一次纳斯达克泡沫破裂前后),IBM是与微软并列的科技巨头之一,虽然其市值已经低于后者,但仍处于一个重量级。此后二十年,IBM经过了多次业务重组,确立了以企业级软件为核心的商业模式,同时也退出了“科技巨头”的行列,与微软等一线科技公司的差距越拉越大。此时此刻(2024年9月11日):

IBM的市值只有微软的1/16,更准确的说是6.14%;上个季度IBM的营业收入只有微软的1/4,净利润只有微软的1/12;Non-GAAP净利润也只有微软的1/10;

在规模远远小于微软的情况下,上个季度IBM的营业收入同比增速仅有2%,而微软为15%;IBM的净利润增速倒是略快于微软(14% vs. 10%)。

有必要指出,上述对比不完全公平,因为2021年IBM刚刚完成了对IT基础设施运维业务的拆分,后者变成了一家名为Kyndryl(勤达睿)的独立上市公司。然而,就算把Kyndryl加进来,IBM的营业收入也仅能达到微软的30%。何况Kyndryl被拆分的原因就是其利润过于微薄,不太受资本市场欢迎,目前其市值仅有约50亿美元(相当于1/600个微软)。

在这个生成式AI驱动的时代,微软的战略地位远比IBM更好:前者是OpenAI最大的外部投资者,旗下的Azure云是AI训练最常用的云,而且已经在Office, Teams, Bing等软件和服务当中全面融入了GPT;后者则沦为一个不太重要的角色,以IBM Watson为代表的昔日荣光早已褪色,现在的IBM只能勉强排进AI技术的第二集团。在可见的未来,微软和IBM的差距继续拉大的可能性,显然远远高于拉近的可能性。

01

那么问题来了:IBM是怎么沦落到这个地步的?

要知道,整整十二年前,也就是2012年9月11日,微软和IBM的差距还几乎可以忽略不计:

在那一天,IBM的市值为2334亿美元,微软的市值为2568亿美元,两者完全就是一个量级的公司。

在那个季度(即2012年7-9月),IBM的营业收入为247亿美元,微软为160亿美元;IBM的净利润为38亿美元,微软为45亿美元;两者仍然是一个量级的公司。

此后十二年当中,微软的市值增长了近12倍,而IBM的市值(已经考虑到拆分因素)原地踏步;两者市值被拉开的差距,几乎与净利润被拉开的差距相同,说明这一变化是基本面驱动的,而非市场一时头脑发热。

耐人寻味的是,这十二年当中,两家公司的管理层都是相对稳定的:从2012年至2020年,IBM由罗睿兰(Ginni Rometty)担任CEO,直至2021年由阿温德·克里希纳(Arvind Krishna)取而代之;而从2014年至今,微软一直由萨特亚·纳德拉(Satya Nadella)担任CEO。所以这个问题很大程度上可以简化为:罗睿兰主政期间的IBM,与纳德拉主政期间的微软相比,犯下了什么错误?或者说,未能做出什么正确的事情?

原因肯定很多。我既没有担任过跨国公司CEO,也没有从事过技术工作,所以只能从旁观者的视角,大致说一下自己的看法。从事后诸葛亮的角度看,IBM至少在以下三个重大方向上犯了错误,其重要程度依次递减:

  • 没有即时下注云计算尤其是公有云业务,从而未能适应IT服务“云端化”的趋势;
  • 没有追上AI技术向深度学习转变的浪潮,从而使自己过去几十年的AI技术积累迅速过时;
  • 没有押注于任何消费端(To C)业务,从而失去了更多可能性(虽然押注了也未必有用)。

先说第一条。过去二十年,全球IT服务最重要的趋势就是云计算:从以前的企业自建IT系统,逐渐转变为对外采购公有云平台的服务,由此实现IT基础设施乃至软件服务的全面“云端化”(也就是“外包化”)。第一个吃螃蟹的是亚马逊,AWS已经成长为其最赚钱的业务(远比主营的电商业务更赚钱);其次就是微软。早在接任微软CEO之前,纳德拉就是微软向云计算转型的重要人物,一手促进了微软数据库、Windows服务器和开发工具业务与Azure云平台的融合。在接任CEO之后,纳德拉坚决地、毫不犹豫地对Azure加大投入,终于使得后者成为了微软的收入增长引擎以及最大的单一收入部门。

事实上,从技术和产品的视角看,云计算与微软原有业务的相关性有限:微软在传统PC和服务器软件上的优势,并不能直接转化为云计算服务上的优势,前者的“云端化”是一个漫长而痛苦的过程。所谓“微软传统业务与云计算业务的协同性”,主要是指销售端的协同性——微软的销售体系(包括直销人员和经销商)覆盖了大批企业,可以向这些企业推荐Azure云服务;微软的老客户采购Azure也可以拿到一定的折扣。这种基于销售端的“优势”,IBM同样具备,甚至Oracle也具备,只是其销售覆盖面有所不同而已。

简而言之:微软在旧时代的技术积累,并不能保证它的Azure在新时代能追上如日中天的亚马逊AWS。AWS的前身早在2002年就成立了,2006年就开始对外全面提供服务;Azure的前身则在2008年才成立,2010年才开始对外提供服务。对于技术进步日新月异的云计算行业来说,4-6年的差距是非常巨大的,必须加倍努力才有可能扳回来。纳德拉执掌微软云业务之时,其实已经是向云计算全面转型的最后时间窗口了;如果再晚两年,Azure恐怕就要落后于更后起的谷歌云了!纳德拉的”all-in Azure”决策的战略意义之大,怎么估计都不过分!

而IBM在云计算领域的落后,几乎完全可以归结为“动手太晚”。2010年,IBM才开始探索云计算业务;2013年,才通过收购SoftLayer,建立了一个真正意义上的云服务部门。然而,直到2017年,IBM才确立了以“混合云”(Hybrid Cloud, 可以视为公有云和私有云的结合体)为主的云服务战略,并且在2018年通过收购Red Hat强化了这个战略。彼时彼刻,亚马逊AWS、微软Azure、谷歌GCP三强鼎立的形势已经形成,留给IBM的市场空间已经非常狭小,主要局限于那些偏好混合云的大型企业客户。

搞笑的是,按照IBM官方的说法,罗睿兰担任CEO期间最大的功绩是“确立了IBM的混合云战略”——这话当然不错,只可惜这个战略本应在2012-2013年就确立,而不是等到2017-2018年!“迟到的正义为非正义”,同理,迟到的正确决策只能沦为平庸的决策。况且混合云并非什么IBM独家技术,亚马逊、微软、谷歌乃至Oracle都可以做;哪怕退回这个狭窄的垂类市场,IBM的地位仍然不够稳固。

继续说第二条。IBM曾经在AI技术领域维持了长达五十年的领先地位,70后至80后的朋友应该都对1996年“深蓝”击败卡斯帕罗夫之战记忆犹新;美国人可能还对IBM Watson于2011年在《危机边缘》(Jeopardy!)知识竞赛当中击败人类选手留下了深刻印象。罗睿兰担任CEO期间的一个重要战略,就是通过Watson解决方案,把IBM的AI技术进行商业变现,其首选对象是医疗行业。

事实证明,欧美医疗行业过于复杂,涉及的监管和伦理问题太多,至少在当时并不十分适合由AI去改造,所以Watson的商业表现高开低走。但是更重要的是,2012-2013年(也就是Watson开始大规模商用的时间节点)发生了一场AI技术革命:基于神经网络的深度学习技术不仅取代了传统的知识图谱(符号主义),也取代了统计学习等传统机器学习技术,成为最高效、应用范围最广泛的AI基础技术。此后短短十年间,深度学习彻底改造了互联网内容分发和广告推送体系,开启了自动驾驶和大语言模型(LLM)等新兴产业,在学术界也成为了绝对的主流。

为什么IBM的市值只有微软的十六分之一?

作为老牌AI技术霸主,IBM未能跟上时代;至于原因究竟是管理层决策失误、投入资源不够还是执行效率低下,已经不重要了。重要的是,当谷歌以一年10家的速度收购基于深度学习的AI创业公司、以天价延揽包括伊利亚·苏茨克维(Ilya Sutskever)、吴恩达在内的顶尖AI科学家时,IBM的动作几乎可以忽略不计。结果就是,在短短2-3年之内,谷歌夺走了AI技术霸主的地位,并且迅速将AI应用于搜索引擎、翻译等服务上,从而让“技术-应用-商业化”的飞轮转动了起来。可怜的IBM则直到2021年才承认Watson的失败,当时它的AI基础研发实力不但早已被谷歌甩出了好几个身位,而且已经落后于亚马逊、Meta。

严格地说,微软在这一局里也是后来者,深度学习技术从来不是它的强项。但是微软做出了一个相当正确的决定,就是在2019年投资OpenAI,并且将后者的服务融入Azure云平台。ChatGPT横空出世之后,所有人都不得不承认,这是微软历史上最重要、最成功的一次战略投资。与GPT的深度合作不仅拉动了微软Office, Teams等软件服务的销量,更重要的是确立了Azure的“AI服务第一云平台”的地位——从2023年开始,AI需求每个季度都能至少把Azure的收入增速拉高5个百分点。现在轮到亚马逊感受到危机、急忙寻找各种应对手段了!

当然,微软并没有把希望全部寄托在对外投资上,它对于生成式AI的内部研发一直在进行中。例如,它曾与英伟达共同开发了万亿参数规模的Megatron大模型,而且至今仍在开发和迭代大模型。最近五年,由于Azure逐渐释放出巨大的盈利能力和现金流,微软得以向生成式AI等基础研发方向分配更丰厚的资源,实现成熟业务对新兴业务的“供养”;而IBM或Oracle则没有这么多资源可供挥霍。成功能够带来成功,就像钱能生钱,关键在于资源分配的方法得当。

最后说第三条。自从2005年向联想出售PC业务之后,IBM几乎就没有像样的消费端业务了。此后近二十年时间里,IBM对消费端业务没有展现过任何兴趣,不管是消费互联网、消费硬件还是内容服务。公允地说,这不能算一个真正的“错误”,因为IBM确实不具备消费端业务的基因,就算过去十多年里它押注了什么消费业务,我们也很难预测它取得多大的战果。

问题在于,同一时期的微软也不具备太多的消费端业务基因,但它还是屡败屡战、愈战愈勇,顽强地坚持了下来。对游戏业务的投入,贯穿了比尔·盖茨、史蒂夫·巴尔默和萨特亚·纳德拉三位CEO的任期;对智能硬件的投入,虽然在智能手机领域输的一塌糊涂,但是在平板电脑取得了一定的战果,维持了微软的战略性存在;对消费互联网的投入,主要是Bing搜索引擎和LinkedIn,总体看来是成功的,尤其是在与生成式AI融合之后,其战略价值正在上升。附带说一句,Bing的启动和LinkedIn的收购,都发生于纳德拉的CEO任期内。

我们不难发现,巴尔默担任CEO期间,微软确实不擅长消费端业务,朝令夕改、毫无头绪,收购过来的优质业务往往也灰头土脸收场。可是在纳德拉接手之后,微软的消费端业务更成熟了,其表现至少可以称之为中规中矩。从财务角度看,时至今日,微软的全部消费端业务均实现了盈亏平衡,就连历史上的烧钱大户游戏业务也是如此(这得益于对Xbox硬件平台定位的转变)。从资本市场的角度看,它们不再是拖后腿的业务,对微软市值的正面贡献越来越明显了。

纳德拉对于消费端业务的态度,集中体现在2022年初他对收购动视暴雪决策的解释当中:对于游戏这样一个拥有超过30亿用户的大型消费业务,微软不能缺席。同理可以推断出,在纳德拉看来,微软若想保持科技巨头的地位,就不能龟缩在企业级业务的“舒适圈”里,必须打出去。这一方面是为了建立与消费者的直接联系、培养用户心智,另一方面是为了形成业务协同效应——例如AI与Bing的协同效应,以及Azure与云游戏的协同效应。反观IBM,过去二十年的历任CEO,没有一个做出过类似的判断;他们无一例外地认为,IBM可以通过仅仅做企业级业务,甚至仅仅做利润丰厚的大企业业务,就维持科技巨头的地位。历史证明他们错了。

不过,既然IBM已经在云计算、AI两个战略方向上犯下了更不可饶恕的错误,对消费端业务毫无押注的错误就没那么重要了,甚至可以忽略不计。讽刺的是,IBM历史上最高光的时刻,恰恰是它在消费端最强大的时刻——从1980年代直至1990年代初,IBM PC引领了第一波信息技术革命走进千家万户,直到康柏、惠普、戴尔等生机勃勃的新厂商后来居上。在消费端电脑市场,苹果曾经是IBM的手下败将,可是在短短十几年内它就重新站了起来,成为了一家完全立足于消费端市场的科技巨头。世事万变,但是事在人为,“基因”也好、“历史积累”也好,归根结底是依靠人去执行的。

02

因此,我们更能理解,在美式上市公司中,CEO为什么总能拿到极端丰厚的薪酬了:

根据彭博新闻的统计,2022年美国上市公司CEO的平均薪酬是员工平均水平的400倍!像埃隆·马斯克这样的明星CEO,每年能够拿走价值几十亿美元的薪酬包。纳德拉2023年的薪酬包为4850万美元;而在他就任CEO之前的2013年,作为微软高级副总裁、云计算业务的负责人,他的薪酬包仅为760万美元。

哪怕考虑到最近十年的通货膨胀因素,差距也是十分巨大的!

这种情况合理吗?考虑到CEO至关重要的地位,显然是合理的。在纳德拉担任微软CEO的十年之内,微软的股价上涨了10倍;而在此前巴尔默的任期内则基本是零增长。如果罗睿兰在担任IBM CEO期间能够在云计算和AI两大战略性问题上面至少做出一个正确决策,并执行下去,那么IBM现在可能还屹立于科技巨头之林,其市值可能是万亿美元而不是1850亿美元。美式公司治理结构赋予了CEO几乎无限的业务决策权,所以CEO应该为一切错误承担责任,也应该为一切成就获得奖励。所谓“权力与义务的统一”,就是这样的。

由此可以进一步推断出:在采用美式公司治理结构的中国公司,主要是互联网中概公司当中,CEO的权力和责任就更大了。他们不但享有美式公司所赋予的制度性权力,还拥有中式人情社会所特有的非制度性权力,从而可以更高效、更彻底地将自身意志贯彻下去。当他们做出正确或错误选择时,对公司的影响就更大了。所以说,互联网大厂的成败至少有一半可以归结为一号位的问题,这个说法或许有些偏激,但还是有道理的。

就上面这个问题,我还想展开说更多,但那应该是另一篇文章的主题。

BitGo计划明年推出美元稳定币USDS

9月18日消息,BitGo计划明年推出美元稳定币USDS,将向该网络提供流动性的机构提供奖励。USDS将与市场上的其他稳定币一样,由短期国库券、隔夜回购和现金支持。这将是BitGo第一个公开参与的稳定币。 BitGo首席执行官Mike Belshe在接受采访时表示:“推出USDS的主要原因是,虽然现有的稳定币有很好的功能,但我们看到了一个机会,可以创建一个更加开放和公平的系统,促进创新,最重要的是,奖励那些为网络做贡献的人,稳定币的真正价值来自于其使用者、他们提供的流动性以及交换的接入点。”

Vitalik TOKEN2049演讲全文:以太坊需要满足主流采用需求,未来十年如何发展?

以太坊联合创始人 Vitalik Buterin 在参与 TOKEN 2049 时,发表了题为“What Excites Me About the Next Decade”(未来十年令我兴奋的事情)的主题演讲,其认为当前加密行业已不再处于早期阶段,但在“实际可用”方面仍处于早期,以太坊需要满足主流采用的需求。以下为 Vitalik 本次演讲的原文,经Odaily星球日报编译精简,enjoy~

Vitalik TOKEN2049演讲全文:以太坊需要满足主流采用需求,未来十年如何发展?

加密行业已不再是早期

很多时候,当人们和我谈论目前面临的一些挑战时,他们会倾向于说:“你知道的,现在还处于早期阶段,我们仍在构建基本的基础设施,看看互联网实现花了多长时间。”自比特币推出以来,人们一直这么说,但我认为现在是关注产品的时候,加密已经不再处于早期阶段。

比特币已经存在了 15 年,以太坊已经存在了 10 多年。我们看到像 ChatGPT 这样的事物从完全不存在发展到突然崛起,完全改变了每个人对人工智能的理解。

所以我们必须问自己一个问题,我们应该如何看待这一切?我觉得这个问题答案是,我们并不处于加密行业的早期,但在加密行业“实际可用”方面确实还很早。所以让我通过回顾一下历史来解释我的意思。

记得在 2013 年,我们的团队,当时我们都对比特币感到兴奋,认为比特币是支付领域的下一个重大革命,建设者们做出了非常惊人和认真的努力,试图让世界各地的普通商家开始接受比特币。谁还记得柏林的 Room 77 ?那里有一家接受比特币支付的餐厅,这实际上是我去的第一家比特币餐厅。在 2013 年,你可以自豪的说自己是一家接受比特币的餐厅,人们都会对此感到非常兴奋。

那么接下来发生了什么?我们可以稍微再深入一些,我记得我在 2021 年第一次前往阿根廷时,我注意到的第一件事是,全国范围内的人不仅对加密货币感到非常兴奋,而且还在积极大规模地使用它。

有一次圣诞节我四处走动,我进了一家开门的咖啡店,店主知道我是谁,并允许我使用加密货币支付。虽然他们能使用加密货币,但没有积极使用去中心化技术。

他们使用的是哪种技术?事实证明,阿根廷当地人都在使用金融转账。因为金融转账是即时和免费的。我认为这最终是同一个问题——费用,至少它扼杀了数字货币浪潮:“让每个人都接受比特币作为一种货币”。

如果你还记得加密货币一开始的营销,它谈论了很多关于西联汇款、Paypal、信用卡的费用,他们向客户收取的费用非常高。但后来比特币本身的费用上涨到了 50 美元。

而以太坊的费用也在上涨,我在以太坊上支付的最高费用实际上是用于隐私服务交易。但不可否认的是,gas 价格上涨了,每次我进行操作时,Twitter 上的评论也很多。因此,隐私协议具有非常好的产品市场契合度,但一些交易费用约为 800 美元。所以费用太贵基本上是很多东西失败的原因。

以太坊变得更快更便宜

那么, 2024 年有什么新变化呢?这是一张关于以太坊费用的图表,它们已经从 10 到 50 美分之间下降到低于 1 美分,基本上同时为零。与此同时,Optimism 和 Arbitrum 这两个主要的以太坊 Laeyr 2 已经达到了一个重要的安全里程碑,称为阶段 1 ,多个基于 ZK 的 Rollup 也告诉我,他们计划很快达到阶段 1 。因此,Rollup 也很快会变得更安全。

Vitalik TOKEN2049演讲全文:以太坊需要满足主流采用需求,未来十年如何发展?

费用的问题实际上已经解决了,但这并不是唯一重要的事情。

我清楚地记得在阿根廷旅行时遇到的另一个烦恼是,我试图用以太坊主网给一个人转账,交易费用大约是 4 美元,交易确认大约花了 5 分钟。虽然这时 EIP-1559 已经上线,但当时用的钱包实际上并没有升级。

比特币区块每 10 分钟出块一次。所以你必须等待 10 分钟,甚至可能一个小时才能确认交易。从理论上讲,以太坊的区块确认时间为 13 秒,但由于 gas 的原因,市场可能会出现效率低下的情况,有时你必须等待完全随机的区块确认时间,可能是 5 分钟,甚至更长的时间才能让我们的交易被纳入。

但 EIP-1559 实际上基本解决了这个问题。如果你添加合并功能,那么合并功能所做的一件事就是,将下一次交易的平均等待时间缩短了一半。

有了以上两个升级,我们如今的交易确认时间在 5 到 15 秒内。如果使用具有快速免费确认的 Layer 2 解决方案,通常可以缩短到一秒钟。因此,基本上这两个主要问题是导致 2021 年中心化用户体验远远优于去中心化用户体验的最大因素。

加密不只是一种效率技术

但我们也可以看看应用程序的一般用户体验质量。如果查看我 2015 年发布的推文,那是一次关于黑客松的内容,里面提到了 Firefly,这是一个用于 Farcaster 和 Twitter、Lens 的客户端。如果你观察一下用户界面的质量,那么看起来和 Web2 产品的质量没什么差距,但它是一个基于去中心化的应用程序。

今年我们也看到了账户抽象方面的进步。我们看到越来越多的人使用安全协议。我们看到了 EIP-7702 。我们开始看到 ZK-snarks 的主流应用,各种不同的应用程序,我们还有了新的、更好的隐私协议。还有零知识证明,我可以证明这是你的知识,你可以拥有一个护照并且充分使用它,甚至可以用于现有 Layer 2 之间易用性改进。

两年前,每个人都在抱怨需要手动切换网络。今天,我觉得至少在过去一年里,我实际上没有手动切换过网络。因此,技术的局限性曾是一个阻碍因素。我甚至记得那个时刻,当时 CryptoKitties 看起来可能会成为一个真正的出圈应用,但后来发生了什么呢?CryptoKitties 的成功将以太坊的 Gas 价格推高到了 50 。

以太坊变得基本上无法使用,这确实限制了其增长。但如今不会在出现这种情况,这基本上意味着一个不使用加密货币的理由不存在了。那么,还有什么使用加密的理由呢?我认为人们有时会犯的一种错误,是一直谈论加密 SDK 和将加密视为一种效率技术。这是很多人在 10 年前谈论过的事情。

2013 年比特币的好处被宣传有哪些好处?让付款变得容易、安全控制你的资金、零或更低的费用、保护个人身份等等。这四项中,有两项是我认为非常独特的加密货币特征。另两项曾经是加密货币独有的,但现在是否仍然如此呢? 如今我们有 Venmo,还有一些更好的支付方式,例如微信支付。

中心化系统方案越来越好,但在某些地方,支付和融资渠道获取仍然非常困难。为什么说困难呢?这不是因为技术的问题,这主要是因为全球政治的限制。所以我认为重要的是要记住,加密货币给世界带来的好处并不与同类技术进步绑定。这与从普通喷气式飞机转换为超音速喷气式飞机的技术改进一样,虽然都是飞机,但已经是一种不同类型的技术。

那么,具体是什么样的技术呢? 一种看法是参考约什·斯塔克 (Josh Stark) 在以太坊基金会撰写的这篇博客文章,发表于大约两年前。文章标题为《Atoms, Institutions, Blockchains》。其论点是,区块链使我们能够创造一种数字上的坚固性,这使我们能够创建难以改变的持久数字结构。

这些结构是坚固的,并且不会被破坏,就像用混凝土制成的物理结构。区块链和以往的网络技术有什么区别呢?在以往的网络中,如果你的文件共享网络崩溃了,那也没关系,你只需切换到另一个网络,过一周,大家就会忘记。但在区块链里如果一个锁定机制崩溃了,而你切换到另一个,大家就会失去所有的钱。这是一个根本性的区别。

区块链使互联网不仅可以弥补整体结构的弱点,而且实际上可以更好地构建能够解决类似问题的替代方案。

区块链是数字化的混凝土,可以用来建造虚拟的天空之城,那么这里有谁看过《天空之城》这部电影吗?

我认为这部电影真的很棒,我认为这绝对是吉卜力工作室最好的作品之一,我至少看过五遍。但事实证明,这部电影在某种程度上也意外地成为了以太坊的灵感来源,虽然我自己也没意识到。

 2013 年,我在浏览维基百科的虚构元素列表时发现了 Ethereum(以太坊)。这个名字真的很棒,它让我想起了 19 世纪的一个科学理论。两个月后,以太坊基金会之前的一位组合设计师决定用这颗钻石作为以太坊的标志。当时我觉得这是一颗很酷的钻石,我喜欢这个标志,它很漂亮。

7 年后,当我第一次看见这部电影,我发现他们也有以太坊晶体。以太坊晶体实际上就像钻石一样。以太坊看着就像空中数字城堡一样,我认为加密货币中严肃与有趣的方面是结合在一起的,这也是我希望人们记住的。城堡可以保护你,保护你的家人,保护你的社区,城堡也可以是迪斯尼乐园的城堡,让你的社区玩得开心;城堡也可以是迪士尼乐园中的城堡,让你的社区享受乐趣;城堡还可以是一个博物馆,保存你文化的千年历史。城堡同样可以是所有这些东西,各种类型的数字城堡我们都可以在以太坊之上建造。

区块链需要满足主流采用需求——以钱包安全为例

那么,在完成这些建设之后,我们需要满足主流采用的需求,同时我们需要坚持开源和去中心化价值观。这是什么意思?例如钱包安全。

从历史上看,基本上有两种方法来保管你的资金:

第一种方法是比较疯狂的自我保护主义。你写下一个助记词,你所有操作都离线进行。你把助记词刻在一块钛金属上,然后把钛金属放进一个更坚固的钛金属锁箱里,然后把这个锁箱埋在地下 10 米深的地方,这样你的币就安全了。这是一种方法。

另一种方法是你可以将你的币交给一个值得信赖的人。你知道有这么一个好人,他的名字叫山姆。他和克林顿一起出席活动,他一定值得信赖。但两年后,结果证明你对谁值得信赖、谁不值得信赖的判断有点错误。

我认为这不是仅有的两种选择。如果你想要保护自己免受中心化的侵害,那么你可以做传统的自我托管,例如前面所说的将助记词放在钛金属里,然后埋到地下 10 米处。如果你想两者兼而有之,那么该怎么办呢?

这就是多重签名安全的智能钱包的重要性。多重签名安全意味着你有多个密钥,例如你可能有 6 个密钥,而发送交易时需要 4 个。你甚至可以设定一个规则,对于小额交易只需要一个密钥。这些密钥可以是你能够控制的任何组合,包括朋友和家人等。

如今,您实际上可以创建一个简单的真实账户,这是一个智能合约钱包,只有当您生成一个证明,证明您控制着特定电子邮件地址时,您才能从中发送交易。因此,现在基本上可以将 Web2的社交恢复功能引入 Web3的世界。在 Web3的世界中,你甚至可以多样化你的信任。

因此,您可以通过一家美国公司对 Gmail 帐户进行 zk 包装,然后您可以将其结合起来变成由 CK 包装,同时您也可以通过一家中国公司制造的硬件钱包制作三个密钥。如此,您甚至可以获得机构级信任的好处,而没有很多弱点。Forecast 在用户体验上是一款 Web2 应用程序,但用户可以设置恢复地址,未来可能的是通过多重签名可以控制自己的帐户。我个人对自己多重签名账户信任程度远远高于任何一个中心化账户。

去中心化与实用性兼顾

这有一个基于以太坊的演示钱包,但它的用户体验与 Venmo 相同。通过某种机制,用户可以证明他们的提款来自一些存款,而无需透露是哪一笔,但可以证明他们的存款不是来自坏人。因此,这是一种让普通用户拥有非常高隐私度的方法,可以满足很多重要的需求,但实际上并没有后门。

例如,对于 ZK 社交媒体,可以使用一个类似超级账户。我们可以证明您是社区的一员,为遇到问题的人提供证明或解决声誉问题,同时仍然保护他的隐私。这不需要用户在场,不需要有人相信您或需要 KYC 来验证您。我们可以同时拥有隐私和信任。

在以太坊主网,许多技术改进正在发生,使得 Layer 1 在减少最终确认时间、增加容量的同时,更加去中心化且易于验证。这些事情已经在发生。这些都是以太坊生态系统和我认为加密货币在未来 10 年将要发展的方向。

现在我们基本上有两条错误的道路,一条是牺牲实用性以换取去中心化,永远成为一个只对自己有吸引力的生态系统。它只有 695 个用户。另一条糟糕的道路是牺牲去中心化以换取实用性,然后试图说服自己这是没办法的选择。

所以下一个伟大的加密应用程序我们必须要用一个“漂亮”的 Gmail 帐户去登录吗?我们并不是必须要在这两种黑暗选项中做出决定,我们可以同时拥有去中心化和实用性。