<返回更多

数据采集技术简介

2020-04-16    
加入收藏

前言

本系列的技术文章不涉及实现细节,仅探讨实现思路。由于数据仓库不仅仅是一个理论概念,其数据质量等原则包含了大量的技术实现细节,因此从数据采集开始,到数据处理,至最终的数据展现,都需要进行原理上和实现上的思路分析,才能保证最终数据仓库理论的完整实现。另外,需要强调的是,本系列文章非原创,是笔者多年从业经历的一种思路整理,对于日常理解数据仓库的实现有着很大的帮助,因而用到了非常多其他文章的引用,并介绍很多业界的好用工具及优秀做法。

一、技术路线图

数据采集技术简介

 

二、Web端日志采集的业务概述

Web端数据采集主要通过三种方式实现:服务器日志、URL解析及JS回传,详情如下:

浏览器的日志采集种类可以分为两大类:

除此之外,还有一些针对特定场合统计的日志,例如页面曝光时长日志、用户在线操作监控等,但原理都基于上述两类日志,只是在统计上有所区分。

Web端重要指标主要包括三个部分:

三、Web端日志采集流程

目前典型的网页访问过程是以浏览器请求、服务器响应并返回所请求的内容为主,主要传输html文档,浏览器和服务器之间的通信普遍遵守HTTP协议,并逐渐过渡到最新的HTTP2.0版本。一次典型的访问过程由如下几部分组成:

在实际的处理过程中,前三步是无法采集用户的浏览日志,采集主要在第四步,也就是浏览器解析文档时才能进行。因此可以很自然的想得到,HTML文档中适当位置增加一个日志采集节点,当浏览器解析到这个节点时,便会发出一个特定的HTTP请求到日志采集服务器,日志采集服务器接收到请求时,便可以确定浏览器已经成功接收和打开了页面。目前业界常见的日志采集方案,只是在实现的细节上有所不同,原理都是相通的。

但只统计页面流浪是不能满足业务需求的,很多场合下用户的具体行为特征也需要采集,因为往往会在特定的位置添加一个JS空间,当用户在页面上执行某个行为时,便会触发一个异步请求,按照约定的格式向日志服务器发送点击、等待、报错等交互行为。

四、Web端日志的清洗和预处理

在大部分场合下,直接收到的日志不能提供给下游使用,只能作为ODS基础日志进行保存,由于大数据平台的半结构化特征要求,需要进行一些修正,转化为DWD基础日志才可以使用,具体原因有如下几种:

五、漏斗模型简介

Web端的分析经常用到的模型为:漏斗模型。这里介绍漏斗模型,对于理解一些常见的统计方式有比较好的帮助,例如淘宝SPM体系,当你熟悉和了解之后,会发现它真的很好用。

漏斗模型全称为“ 搜索营销效果转化漏斗 ”,对应了企业搜索营销的各个环节,反映了从展现、点击、访问、咨询,直到生成订单过程中的客户数量及流失。从最大的展现量到最小的订单量,这个一层层缩小的过程表示不断有客户因为各种原因离开,对企业失去兴趣或放弃购买。可以说,互联网商业价值的体现,与漏斗模型有着直接的关联关系,因此也是一系列技术实现及数据分析的重点。

漏斗模型是一个线性流程,从开始到结束,用户在每一个环节,都会产生流失,就像漏斗一样。以电商为例,最常见漏斗模型就是:浏览/搜索-加购-下单-支付-复购,因此对于统计数据而言,找出用户购买一个商品的搜索过程,来反思用户的行为,就显得十分有必要。数据人要做的工作,就是整理出路径中各个环节的数据,考虑用户流失的因素,进行对应的优化,或者通过缩短用户路径来优化产品体验。其实不论在电商平台、招聘平台、广告平台等常见的互联网业务模式中,漏斗模型始终是数据分析工作的重点。这里通过一个图来理解漏斗模型的商业价值:

数据采集技术简介

 

但说实话,很多公司在数据统计上,可能并没有这么强的需求来搭建一个完整的平台,也有很多公司想从不同的地方来看一看自己的数据是否准备,这 时 大家都会选择google GA来进行统计或者是对比数据。 公司的统计往往是两条线,一条是自有线的统计,另一条便是发给Google GA来进行对比分析。 因此在统计平台的功能设置上,经常要与Google GA对标,因此数据仓库不仅是一个过程的搭建,还有很多固有的业务逻辑在其中。

六、淘宝SPM码

漏斗模型比较优秀的应用案例为 淘宝SPM码 。查看淘宝网页的源代码会经常看到http://detail.tmall.com/item.htm?id=XXX&& spm=2014.123456789.1.2 这样的例子,这是淘宝提供的SPM是淘宝社区电商业务(xTao)为外部合作伙伴(外站)提供的一套跟踪引导成交效果数据的解决方案。简单说来, SPM编码 是一种 用来跟踪页面模块位置的编码,标准spm编码由4段组成,采用a. b.c.d的格式(建议全部使用数字),其中:

完整的SPM四位编码能标识出某网站中某一个频道的某一个具体页面。比如xTao合作伙伴(a=2014)中某个外站appkey为123456789(b=123456789),频道ID为1(c=1),页面ID为2(d=2),那么spm=2014.123456789.1.2,就唯一标识外站123456789的频道1上的页面2,从这个页面点击出去的链接,后面都应该携带spm=2014.123456789.1.2的参数串。这样,通过这个编码,我们就能唯一的定位到一个url是由外站中哪个具体页面点击生成的。

因为spm编码本身是有层次的,因此,我们可以:

基于SPM可以得到的效果统计指标:

七、客户端日志采集

与网页日志对应的,是手机应用为基础的客户端日志,由于早期手机网络通讯能力较差,因而SDK往往采用 延迟发送 日志的方式,也就是将日志统计在本地,然后选择在Wifi环境下上传,因而往往会出现统计数据延迟的情况。现如今网络环境好了很多,4G、5G流量充足,尤其是视频类APP基本上都是一直联网,因而很多统计能够做到实时统计。

客户端的日志统计主要通过SDK来完成,根据不同的用户行为分成不同的事件,“事件”是客户端日志行为的最小单位,根据类型的不同,可以分为 页面事件 (类比页面浏览)和 控件点击事件 (类比页面交互)。

页面事件的统计主要统计如下三类信息:

与Web日志采集类似的是,交互日志的采集同样无法规定统一的采集内容,除了记录基本的设备信息和用户信息外,很多统计的方式是可以由业务方自定义统计的,也就是根据业务需求的不同,产品在配置平台上自定义一个统计项,下次SDK更新时便可以加入统计项,自主看到统计内容,便于自动化的管理运维。但在每个事件上,会提供一些额外的统计信息,例如事件名称、事件时长、事件属性、事件页面等。

八、客户端日志的聚合

由于事件的统计涉及到很多参数,基本上是一个行为能够产生一条日志,不仅客户端会产生大量的记录数据,对于服务端的接收通常会产生很大的流量负担。因此统计SDK往往会有聚合和压缩的功能,对于一些展现场景,可以适当的合并日志,以减少数据量。例如在淘宝等APP中,一次商品页的浏览会产生上百条日志,从下游分析的角度来看,只需要知道哪些内容被曝光了即可,因此完全可以在一条日志中记录曝光的ID,而无需每个都统计一遍。

还有一种场景,因为APP存在回退的情况,因此在访问路径的分析中,往往会产生干扰统计,因此在统计时需要添加一些特殊的标识,来鉴别该行为是否属于回退行为。

九、统计SDK

市面上最常见的,如 友盟 、Talkingdata、百度统计、腾讯云分析、GA等第三方统计服务提供商,也诞生了很多在某些分析方面更加专一、深入的统计服务商,比如诸葛io、growingio、神策等,看自己需求进行配置。

十、唯一设备标识符

在客户端的相关统计中,如何鉴定一个用户是非常难的,因为网页有统一的Cookie来进行识别,但客户端并没有。历史上, IMEI、IMSI、mac地址 、苹果禁用之前的UDID,都可以用,但由于用户自我保护意识的提高及系统的升级,很多基本的设备信息都难以获取到了,Android也进行了设备信息获取的限制。对于单个App的公司来说,识别唯一用户并不是难事,但对于多App的公司来说,这一点就尤为重要,也这是业界难题。

十一、H5与Native的统一

App有两种类型,一种是纯 Native 的App,另一种是既有Native,也有 H5 页面嵌入的App,目前大部分的App都是两者兼有的状况。Native页面的数据统计主要通过SDK进行,但H5页面的数据统计还是基于浏览器的页面日志来进行,由于采集方式的不同,很多情况下两个页面互相跳转时,便无法还原用户访问路径,对于数据的统计分析产生很严重的影响。解决的思路有两种,一种是Native日志归拢到H5日志中,另一种是H5日志归拢到Native日志中,但综合考虑,归拢到Native日志更为合理,因为SDK能够采集更为全面的日子信息。具体实现方式上,可以在H5页面中嵌入JS代码,通过调用WebView框架中的JSBridge接口,来实现参数的传入,并由统计SDK进行日志的封装。当然方法不是万能的,有其他的好方式也可以尝试。

十二、大促保障

大促保障指在双十一等类似场景下,流量短时间内保障的情况,需要对系统进行一定的改造。在高并发场景下,从数据的埋点采集,到日志服务器的收集,再到数据传输,再到数据的分析和统计,任何一个环节出现问题,大促保障就是失效的。由于日志处理的链路非常长,因此可以通过限制流量、消息队列削弱峰值、异步处理、内存缓冲、扩展服务等方式进行,在日志采集环节中,可以通过延迟非核心日志上传的方式,优先处理核心日志,以保障统计效果。在天猫双十一中,可以经常看到暂停部分服务的通知,便是这种方式的实现。

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>