基于 Kafka 的服务端用户行为日志采集

本文来自网易云社区

背景

随着互联网的不断发展,用户所产生的行为数据被越来越多的网站重视,那么什么是用户行为呢?所谓的用户行为主要由五种元素组成:时间、地点、人物、行为、行为对应的内容。为什么要做用户的行为分析?因为只有做了用户行为分析才能知道用户画像、才能知道用户在网站上的各种浏览、点击、购买背后的商业真相,从而给企业带来商业价值。

网易美学是一个供用户发现和分享美妆及护肤的社区。既然是一个社区,其中的用户行为分析扮演着举足轻重的角色。对应网易美学来说,用户行为主要有以下几个应用场景:

  • 推荐系统。目前的推荐是基于用户的行为,然后运用不同的算法计算出用户应该展现的推荐数据。

  • 拉新。对于一个产品来说,不断的获取新用户是其中一个目标,有更多的新用户使用产品,就意味着该产品能够得到更多人的认可。

  • 转化率。一个用户从注册到各个页面的浏览等行为组成一个漏斗模型,漏斗的每个模型可以看到用户的留存状况。

  • 留存率。一个产品不但能让更多的新用户使用,也要保证老的用户不流失。

  • 促活率。所谓的促活率,就是让老用户经常使用该产品,让用户喜欢上这个平台。

埋点技术

用户的行为对于一个互联网产品来说很重要,因此如何采集用户的行为就变得非常至关重要了。对用户的行为采集可以通过埋点的方式实现,埋点主要有以下几种方式:

  • 前端埋点。在某个控件操作发生时通过预先写好的代码来发数据的代码埋点。

  • 客户端埋点。即 app 使用一些 sdk 对用户的行为进行收集然后批量发送到一个收集平台。

  • 服务端埋点。服务端埋点就是通过拦截用户的请求接口,对用户的一些行为信息进行采集。

服务端日志采集

下面我详细介绍下网易美学的服务端日志采集系统使用的技术,总体架构,部署图,运作流程以及配置相关信息。

  1. 技术选型

服务端日志采集主要通过在 Controller 的接口中进行埋点,然后通过 AOP 技术、Kafka 消息系统以及 logback 对用户行为进行采集。

之所以使用 AOP 技术是因为 AOP 的以下重要特定:

  • 代码的侵入性小。对于业务代码的侵入性小,只需要在 Controller 的接口上添加注解,然后在其他模块对用户行为进行采集。

  • 重用性。对于相同作用的代码可以进行重用。

  • 扩展性。能够很好的对系统进行扩展。

由于使用异步方式对用户行为信息进行收集,因此需要使用消息中间件。目前消息中间件非常多,比较流行的有 ActiveMQ、ZeroMQ、RabbitMQ、Kafka 等。每个消息中间件都有各种的优势劣势,之所以使用 Kafka 消息中间件,是因为以下几点因素:

  • 高性能。每秒钟可以处理数以千计生产者生成的消息。

  • 高扩展性。可以通过简单的增加服务器横向扩展 Kafka 集群的容量。

  • 分布式。消息来自数以千计的服务,使用分布式来解决单机处理海量数据的瓶颈。

  • 持久性。Kafka 中的消息可以持久化到硬盘上,这样可以防止数据的丢失。

因为用户的行为数据最终是以日志的形式持久化的,因此使用 logback 对日志持久化到日志服务器中。

  1. 总体架构

图1 总体架构图

服务端日志采集系统主要由两个工程组成:beauty-bi-core 和 beauty-bi-service。由于网易美学的使用 dubbo 框架,因此有服务提供方和服务消费方。beauty-bi-core 被 web、wap 和 mainsite 服务消费方依赖。此外,beauty-bi-service 也依赖于 beauty-bi-core,主要是依赖于其中的一些实体类及工具类。

beauty-bi-core 工程为 Kafka 消息的生产者,主要封装实现切面的具体逻辑,其主要职责如下:

  • 解析用户请求的 Request 信息:从 Request 中提取用户的基本信息,如设备型号、用户的供应商、ip、设备的分辨率、设备平台、设备的操作系统、设备 id、app 渠道等。

  • 接口对应的参数:通过切面可以提取接口的参数值,从而知道用户的业务信息。

  • 应用层返回的结果信息:因为切面使用 AfterReturning 方式,因此可以获取用层的返回结果,从返回结果中可以提取有用的信息。

  • 用户的基本信息:用户的 id 信息。

  • 信息格式化:将信息转化成 JSON 字符串。

  • 发送消息:将最终需要发送的消息放入本地阻塞队列中,通过另一个线程异步从阻塞队列中获取消息并发送到 Kafka Broker 中。

beauty-bi-service 工程为 Kafka 消息的消费者,其主要职责如下:

  • 实时从 Kafka 中拉取最新的数据。

  • 将 JSON 字符串转化成,方便进一步对用信息进行加工。

  • 对用户的 ip 进行解析,获取 ip 对应的地区以及经纬度信息。

  • 将加工好的最终信息持久化到 log 文件中。

  1. 部署图

图2 部署图

上图为网易美学与日志系统系统相关的部署图,App、Wap 和 Mainsite 服务器集群分别对应不同终端的应用。Kafka 集群使用杭研的集群,目前有 10 个 Broker。日志服务器有两台,通过 Kafka 的均衡策略对日志进行消费。

  1. 日志采集的流程

日志采集流程图如下所示:

图3 日志打点流程图

上图为消息生产者和消息消费者共同组成的流程图。

消息生产者的具体步骤如下:

  • 通过切面拦截用户的请求。

  • 从切面中提取请求头的基本信息,如设备信息,cookie 信息,ip 信息等。

  • 提取请求的接口参数信息。

  • 从接口返回值中提取相关信息,如 id,pvid 等。

  • 将提取的信息封装成 JSON 字符串,放到阻塞队列中,假如阻塞队列溢出会有三次重试机制。

  • 异步线程从本地阻塞队列中获取数据,并将信息组装发送到 Kafka 的 Broker 中,此时消息生产者结束。

消息消费者的具体步骤如下:

  • 实时从 Kafka Broker 中批量拉取消息。

  • 将拉取的消息转化成对象。

  • 解析 ip 对应的国家、省份、城市、经纬度信息。

  • 对不同业务场景的信息进一步解析。

  • 将日志信息转化成 JSON 字符串,持久化到 log 文件中。

  1. 相关配置
  • application-XXX.properties:该配置放 Kafka 的相关属性,包括 topic、groupId、server 等信息。

  • beauty-log-msg.xml:该配置放在 app-web,mainsite-web,wap-web 的 src/main/resources 目录下,主要是初始化 kafka 生产者的信息。

  • beauty-bi-service.xml:该配置放在 beauty-bi-service 工程的 src/main/resources 目录下,主要用于加载 kafka 消费者的配置信息,并且启动 kafka 消费者服务。

  • logback.xml:该配置放在 beauty-bi-service 工程的 src/main/resources 目录下,主要用于声明日志文件存放的目录,需要持久化的日志的 package 路径,以及日志持久化的格式。

  • ip_conf.txt:该配置放在 beauty-bi-service 工程的 src/main/resources 目录下,用于解析 ip 对应的地域、经纬度等信息。