本文假设你是一个刚接触 Web3 的数据分析师,开始组建你的 Web3 分析团队,或者刚刚对 web3 数据产生兴趣。无论采用哪种方式,你都应该已经大致熟悉了 APIs、数据库、转换和模型在 Web2 中的工作方式。
在这本新指南中,我将尽量简明扼要地阐述我的三个观点:
1、思考:为什么开放的数据渠道会改变数据发挥效用的方式;
2、工具:Web3 数据栈中的工具概述,以及如何利用它们;
3、团队:Web3 数据团队的基本考虑和技能。
数据思考
让我们先总结一下如何在 Web2 中构建、查询和访问数据(即访问推特的 API)。我们有四个步骤来简化数据渠道:
1、触发 API 事件(发送了一些推文);
2、更新到数据库(连接到现有的用户模型/状态更改);
3、特定产品/分析用例的数据转换;
4、模型训练和部署(用于管理你的 Twitter feed)。
当数据是开源的时候,唯一需要的步骤是在转换完成之后。Kaggle(1 000个数据科学/特征工程竞赛)和 hugs Face(26 000个顶级 NLP 模型)等社区使用一些公开的数据子集来帮助企业构建更好的模型。有一些特定领域的情况,比如在前面的三个步骤中开放数据的开放街道地图,但是它们仍然有写权限的限制。
我想声明的是,我只是在这里谈论数据,我并不是说 Web2 完全没有开源。像大多数其他的工程角色一样,Web2 数据有大量的开源工具来构建他们的管道(dbt, apache, TensorFlow)。我们仍然在 Web3 中使用所有这些工具。总之,他们的工具是开放的,但他们的数据是封闭的。
Web3 也将数据开源,这意味着不再只有数据科学家在开放环境下工作,分析工程师和数据工程师也在开放环境下工作!每个人都参与到一个更连续的工作流程中,而不是一个几乎是黑盒的数据循环。
工作的形式已经从 Web2 数据大坝到 Web3 数据河流、三角洲和海洋。同样重要的是需要注意,生态系统中的所有产品都会同时受到这个循环的影响。
让我们看一个 Web3 分析师如何一起工作的例子。有几十家交易所使用不同的交易机制和费用,允许你将代币 A 交换为代币 B。如果这些是典型的交易所,如纳斯达克,每个交易所将报告自己的数据在 10k 或一些 API,然后其他一些服务,比如 capIQ,会把所有交换数据放在一起,然后收取费用,让你访问他们的 API。也许有时候,他们会举办一次创新竞赛,这样他们就可以在未来收取额外的数据/图表功能。
在 web3 交易所中,我们有这样的数据流:
1、dex.trades 是 Dune 上的一个表格(由许多社区分析工程师随着时间的推移整理而成),所有的 DEX 交换数据都被聚合在一起,所以你可以很容易地在所有交易所中搜索单个代币的交易量。
2、一名数据分析师通过社区开源查询创建了一个仪表盘,所以现在我们对整个 DEX 行业有了一个公开的概述。即使所有的查询看起来都是由一个人写的,你可以猜测这是在 discord 上经过大量的争论,才准确地将其拼凑在一起得。
3、DAO 科学家查看仪表板,并开始在他们自己的查询中分割数据,查看特定的对,比如稳定币。他们会观察用户行为和商业模式,然后开始建立假设。由于科学家可以看到哪个 DEX 在交易量中占据了更大的份额,他们将提出一个新的模型,并提议改变治理参数,以便在链上进行投票和执行。
4、之后,我们可以随时查看公众查询/仪表板,看看提案如何创造出更具竞争力的产品。
5、在未来,如果另一个 DEX 出现(或升级到一个新版本),这个过程将重复。有人将创建插入查询来更新这个表。这将反过来反映在所有的仪表板和模型(没有任何人必须回去和手动修复/更改任何东西)。任何其他分析师/科学家都可以以别人已经完成的工作为基础。
由于共享的生态系统,讨论、协作和学习在一个更紧密的反馈循环中发生。我承认这有时会让人难以承受,我认识的分析师基本上都在轮换数据耗尽。然而,只要我们中的一个人继续推动数据向前(例如,某人创建了插入 DEX 查询),那么其他人都会受益。
它并不总是必须是复杂的抽象视图,有时它只是实用功能,如使它容易搜索 ENS 反向解析器或工具的改进,如自动生成大多数 graphQL 映射与一个 CLI 命令!所有这些都可以被每个人重用,并且可以在某些产品前端或您自己的个人交易模型中进行 API 的使用。
虽然这里开启的可能性是惊人的,我确实承认,轮子还没有平稳地运行。与数据工程相比,数据分析师/科学领域的生态系统仍然很不成熟。我认为有以下几个原因:
数据工程是 Web3 多年来的核心焦点,从客户端 RPC API 的改进到基本的 SQL/graphQL 聚合。像 theGraph 和 Dune 这样的产品就是他们在这方面所付出努力的例证。
对于分析师来说,要理解 Web3 独特的跨协议关系表是非常困难的。例如,分析人员可以理解如何只分析 Uniswap,但却很难在混合中添加聚合器、其他 DEXs 和不同的代币类型。最重要的是,实现这一切的工具直到去年才真正出现。数据科学家通常习惯于收集原始数据并独自完成所有的工作(建立他们自己的管道)。我认为他们不习惯在开发初期与分析师和工程师进行如此密切和公开的合作。对我个人来说,这花了一段时间。
除了学习如何协同工作之外,Web3 数据社区还在学习如何跨这个新的数据堆栈工作。你不再需要控制基础设施,或者慢慢地从 excel 构建到数据池或数据仓库,只要你的产品上线,你的数据就会到处上线。你的团队基本上是被扔到了数据基础设施的最深处。
数据工具
以下是一些数据工具汇总:
下面我们看看每种类型以及用法:
一、交互+数据源:这主要用于前端、钱包和较低层次的数据摄取。
1、客户端:虽然以太坊的底层实现是相同的,但每个客户端都有不同的额外特性。例如,Erigon 对数据存储/同步进行了大量优化,Quorum 支持隐私链。
2、节点即服务:你不必选择运行哪个客户端,但使用这些服务将为你节省维护节点和 API 正常运行的麻烦。节点的复杂性取决于你想要捕获多少数据(轻节点→全节点→归档节点)。
二、查询+数据映射:这一层中的数据要么作为 URI 在合约中引用,要么来自使用合约 ABI 将交易数据从字节映射到表模式。合约 ABI 告诉我们合约中包含哪些函数和事件,否则我们只能看到部署的字节码(没有这个 ABI,你无法反向工程/解码合约交易)。
1、交易数据:这些是最常用的,主要用于仪表板和报告。theGraph 和 Flipside API 也在前端中使用。有些表是合约的1:1映射,有些表允许模式中额外的转换。
2、元数据“协议”:这些并不是真正的数据产品,而是用于存储 DIDs 或文件存储的。大多数 NFT 将使用其中的一个或多个数据源,我认为今年我们将开始越来越多地使用这些数据源来增强我们的查询。
3、专业提供商:其中一些是非常健壮的数据流产品,Blocknative 用于 mempool 数据,Parsec 用于链上交易数据。其他的聚合链上和链外数据,比如 DAO 治理或国库数据。
4、高维度数据提供商:你不能查询/转换他们的数据,但是他们已经帮你完成了所有繁重的工作。
如果没有强大的、杰出的社区来配合这些工具,Web3 就不会出现!我们可以看到每种类型对应的杰出社区:
1、Flashbots:专注于 MEV 上,提供从保护交易的自定义 RPC 到专业白帽服务的所有事宜。MEV 主要指的是枪跑问题,当有人支付比你更多的 Gas(但直接给矿商),这样他们就可以抢先执行他们的交易。
2、Dune 数据精英:专注于为 Dune 的数据生态做贡献的数据分析精英。
3、Flipside 数据精英:专注于为 Web3 数据升天做贡献的数据分析精英。
4、MetricsDAO:跨生态工作,处理多个链上的各种数据奖励。
5、DiamondDAO:专注于 Stellar 的数据科学工作,主要在治理、财政库以及代币管理方面。
6、IndexCoop:专注于代币等特定领域的分析,以制定加密货币行业最好的指数。
7、OurNetwork:每周对各类协议以及 Web3 的数据覆盖。
(注:以上 DAO 的参与联系方式详看原文。)
每个社区都做了大量的工作来改善 Web3 的生态系统。毫无疑问,拥有社区的产品将以100倍的速度增长。这仍然是一个被严重低估的竞争优势,我认为除非人们在这些社区中建立了一些东西,否则他们不会获得这个优势。
数据团队
不用说,你也应该在这些社区中寻找可以加入你的团队的人。让我们进一步分析重要的web3数据技能和经验,这样你就能真正知道你在搜索什么。如果你想被雇佣,把这看作是你追求的技能和经验!
至少,分析师应该是 Etherscan 侦探,知道如何阅读 Dune 仪表盘。这可能需要1个月的时间来适应悠闲的学习,如果你真的要疯狂学习,则需要2周的时间。除此之外,你还需要考虑更多的内容,特别是时间分配和技能转移。
1、时间方面:在 Web3 中,数据分析师大约有30%~40%的时间将花在与生态系统中的其他分析师和协议保持同步上。请确保你不会气晕他们,否则,这将成为对每个人的长期损害。与更大的数据社区一起学习、贡献和构建是必要的。
2、可转移性方面:在这个领域,技能和领域都是高度可转移的。如果使用不同的协议,可能会减少上手时间,因为链上数据的表模式都是一样的。
记住,知道如何使用这些工具并不重要,每个分析师或多或少都应该会写 SQL 或创建数据仪表盘。这一切都是关于如何做出贡献并与社区合作。如果你正在面试的人不是任何 Web3 数据社区的一员(而且似乎对这一块没有任何兴趣),你可能要问问自己这是否是一个危险信号。