数据运营 – 青瓜传媒 //m.clubpenjuin.com 全球数字营销运营推广学习平台! Tue, 02 Jul 2024 05:55:15 +0000 zh-CN hourly 1 https://wordpress.org/?v=5.2.21 https://static.opp2.com/wp-content/uploads/2021/04/favicon-1.ico 数据运营 – 青瓜传媒 //m.clubpenjuin.com 32 32 数据驱动运营步骤和方法 //m.clubpenjuin.com/348545.html Tue, 02 Jul 2024 05:55:15 +0000 //m.clubpenjuin.com/?p=348545

 

宏观环境不景气后,数字化转型、数据化运营成了企业降本增效的重点战略方向之一,本文主要从数据运营的角度,分享数据在产品运营过程能够起到的作用,数据赋能运营的步骤及方法

一、为什么数据对产品这么重要?

互联网发展至今,数据化管理已经深入到每个公司的管理理念当中,从过去的拍脑袋决策到用数据说话。相信很多产品、运营几乎每天上班后第一件事,就是打开报表看KPI表现;给老板汇报或者职级晋升,甚至面试,老板们不只想听到你做了什么事情,更想听到的是你做的产品数据怎么样,或者你做了哪些事情,让数据有所提升。

每款产品的诞生发展都有明确的目标,而为了监控这些目标的达成,会制定一系列的KPI,由此产生了各种各样的数据。可以说,数据是用来衡量产品业务发展的工具,有了它,老板、商务、产品、运营不同角色对业务的理解和判断,才会有统一的标尺。

举个例子,AB两个产品经理同时给老板汇报清明专题活动项目价值时,A产品经理A:活动很成功,大量用户参与活动,产生很多订单和营收,可以加大活动补贴力度。B产品说:曝光环节,在A渠道投放10000用户,带来20000人激活转化,线上CAC(平均线上获客成本)50块,活动ROI(投入产出比,收益/投入)1.2,可以继续加大活动力度。

如果你是老板,你更倾向哪个产品经理的汇报方式?答案很显然是后者。既然数据这么重要,在产品运营阶段,产品经理应该如何围绕数据展开工作呢?今天,就具体分享数据运营的四步法。

第一步,建立指标体系

用户增长界,在确定产品指标体系时有个专有名词“北极星指标”或者叫第一关键指标法(OMTM:one metric that matters),它是一个阶段内衡量业务表现最关键的唯一指标,像北极星一样指引着产品前进,能反映产品经理对产品核心价值的追求。

这里面要注意的一是“一个阶段内”,即产品不断向前发展,市场也在变化,每个阶段的指标可能同,如初创期关注用户量级,中后期关注营收;二是“最关键”即是真正能够衡量业务健康度的关键指标,而不是虚荣指标,早期Facebook在定义KPI时把注册用户数当做关键指标,产品设计流程围绕注册流程的优化和引导,运营团队使用各种运营手段来刺激用户注册,逐步发现,虽然注册用户数不断增长,但是出现很多用户注册了两三年,但再也没有访问或者已经流失不再访问的情况,对于一款社交型应用,如果长时间不活跃的用户是没有价值的,因此,把注册用户数当作北极星指标会导致产品和运营策略的跑偏,后来Facebook把活跃用户数作为北极星指标。

北极星指标确定后,就要定义和拆解指标体系了,因为在在实际工作中,往往多个团队共同协作来达成产品的北极星指标,这也要求北极星指标要客观、简单,便于理解和拆解。

以某视频网站的北极星指标是内容订阅用户数,如何拆解成各个团队的执行指标呢?首先,我们来看影响这个北极星指标的达成,从订阅属性的应用角度,影响用户订阅行为的很大程度是内容供给侧,对于提高内容订阅用户数,一般可以拆解成三个方面:第一个是提高用户订阅数,第二个是提升订阅内容的吸引力,第三个是拉长用户订阅的周期。

这三个方面其实还可以继续细分,以提高内容订阅用户数举例,我们又可以拆解为三个方面:第一个是新用户的激活,第二个是老用户的召回,第三个是体验或使用用户的转化。

类似这样的拆解,就为产品运营确定了工作目标,负责拉新、推广的同学能知道自己每天要拉来多少新用户,要保证新用户的质量,让用户有更多的留存。这样的话,既有眼前明确的小目标,能指导工作落地,又有大的、全局性的北极星指标,让工作方向明晰、有意义。

可以看出,上述过程的拆解,并不是严格意义的KPI由上到下的定量拆解,更多的是围绕影响北极星指标达成的因素,进行相关产品策略的制定。

另外一种是基于指标计算公式间的拆分,例如DAU和MAU的关系来看,DAU=MAU*访问天次/30(当月天数)=(当月新激活MAU+历史回流MAU)*访问天次/天数=【(当月新激活UV*留存率*访问天次) +(历史老用户回流UV*留存率*访问天次)】*访问天次/天数。

这种拆解方式看到网上不少文章有过介绍,不作赘述。

第二步,找到合适的运营方法

指标体系拆解了之后要从不同的数据维度,找到相匹配的运营方法。

以某视频付费会员数为例,北极星指标是付费会员数,从不同的数据指标出发,就衍生出了不同的运营方法:比如,要提高新用户数量,得靠渠道推广、靠各种用户增长手段;而如果要提升用户订阅内容的吸引力,就需要内容运营岗位的同学想办法,通过合作、筛选、主题运营或者算法推荐,为用户提供更匹配、更有价值的内容;再比如,要拉长用户付费周期,就需要商业化的运营,包括定价策略、引导会员开通策略,甚至活动运营,也就是在一定周期内设置一些促销热点活动,从而加长用户的订阅周期。

总的来说,运营方式并没有一个绝对的划分标准,我们往往基于业务的核心目标,以及拆解具体的执行数据指标后,根据业务发展阶段和团队特点,找出当下运营的重点,从而确定具体的运营方法。

同时,需要指出的是,运营分工也在不断演进。比如过去拉新用户,更多属于渠道推广的工作,而现在,为了从拉新、到用户激活、再到用户留存、用户召回形成一体,许多公司会引入用户增长的理念,围绕这一目标,让产品策划、产品运营甚至技术开发同学,组建一个专门的小团队,来独立推进。

第三步,分析和改善数据指标的完成情况

指标明确后会有一系列的产品迭代或运营活动来达成目标,那如何评价策略的好坏呢,最常用的有两种数据方法,漏斗分析法,和A/B Test。

漏斗分析就是把用户行为路径抽象,如电商交易型产品,用户从访问到下单会经历多个流程环节, 比如外卖产品频道区下单转化率8%,作为产品经理你的KPI是提升至12%,老板问你,你准备怎么做呀?你该如何回答?看下竞品?

利用漏斗分析,把下单过程拆分成首页、列表页、详情页、提单页、支付页后,分析每个环节的用户转化,发现从首页进入列表页只有40%,提单到支付成功只有30%,这两个环节的流失率最高,可能的原因有哪些呢,是不是可以先从这两个环节入手呢?

此时,你就可以这样回答老板的灵魂拷问:我们拆解了各个核心节点的转化,发现有两个环节表现不好,需要改善:一个是从首页到列表页的流量分发,我们判断可能原因有这么几点……;第二个是提单到支付,我们判断可能原因是这么几点……因此,我们打算从这几个方面来提升运营效果。这个分析是不是就很有理有据、清晰易懂。

接下来,再来看看第二方法,A/BTest,就是通过不同版本之间的对比,来验证取舍最优方案,用数据说话。

举个例子。做一个投放红包、拉新用户的运营活动,用户可以通过活动页领取1-10元不等的红包,页面下方会引导用户到APP上提现,从而达到拉新和拉活用户的目标。作为产品经理有点拿捏不准到底是哪个文案效果更好,此时可以通过系统进行小流量投放测试,来看哪一组的点击率更高,结果显示:“立即提现”按钮点击率比“领取到账”高25%。这就说明“立即提现”的字眼更吸引人,这时就可以把更大的流量,甚至全部流量都投放在这个“立即提现”的活动页面上。

第四步,做好数据导向的总结优化

最后是数据的总结复盘和迭代优化。所有产品、运营工作的目标,都是为了达成业务数据指标。拆解了数据指标后,制定执行策略,看数据分析效果,效果好,就要思考怎么扩大效果;效果不好,就需要定位原因,重新制定策略。而整个看数据、找问题、定位优化过程,就是总结复盘、迭代优化的过程。

二、总结

数据化运营主要四步走:

1.定义和拆解数据指标。北极星指标是产品一个阶段内最关键的唯一指标,像北极星一样指引着产品前进;这个指标需要客观、简单、便于团队理解,并能由不同的团队拆解和分工完成;

2.团队根据不同的数据指标维度,找到相匹配的运营方法,达成指标;

3.在运营执行过程中,通过漏斗分析法和A/BTest两个非常实用的数据分析方法,来拆解检验运营效果;

4.运营效果好,产品团队要及时总结复盘,扩大效益;如果运营效果不好,就要找到原因,重新制定策略。

有了基础的数据化运营方法论之后,对于常态化的运营流程,数据产品经理可以进一步抽象成数据产品,利用产品化的工具,提升数据化运营的效率。

 

作者:数据干饭人

来源公众号:数据干饭人

]]>
数据运营全流程SOP //m.clubpenjuin.com/343505.html Sun, 28 Apr 2024 08:46:32 +0000 //m.clubpenjuin.com/?p=343505

 

一提到数据运营,很多同学很疑惑。在公司里,经常领导们对数据运营抱了很高期望,一张嘴:“数据驱动运营”,“降本增效”之类的口号都出来了,可真到工作中,就变成了“写sql的运营”。到底咋驱动了?咋提高效率了?看不到落地成果。

今天系统讲解下,数据运营体系该如何运作。

一、什么是数据运营

作为消费者,你是否经常遇到这种场景(如下图):

放大招,数据运营全流程SOP

这就是没有数据运营的典型尴尬:丫还真以为全世界都一样为他们家店开心呢!数据运营就是要解决“一刀切”“降价就完了”的问题。数据运营的做法,是:基于数据分析,结合用户需求,打造匹配用户的运营方案。

一提到“结合用户需求”,很多人会顺口说出“千人千面”。如果是垄断平台,确实可以这么说,比如某宝的商品SKU多达2亿个,基于2亿个SKU打造1000个个性化方案确实有可能。不过大部分非垄断企业,商品SKU一共500个左右,且不是个个爆款,有竞争力的也有十几二十款,扯毛线的“千人千面”……

所以再准确一点的定义,是:通过数据分析,基于有限的商品(或者叫:解决方案),匹配对应的用户需求。能做好现有品类的经营,已经是数据运营的一大功劳了。

那么该怎么做呢?

二、三大核心问题

既然是拿有限的解决方案,匹配用户需求,那么数据运营要分析的重点就是三个:

1、用户的需求是什么?

2、现有的商品/解决方案质量如何?

3、通过什么方式匹配到用户?

放大招,数据运营全流程SOP

问题1:用户需求

用户需求是客观存在的,最大难题是如何收集数据,了解到用户需求。有些人会说:这还不简单,直接让用户填问卷不就好了。问题是,你自己去买东西的时候会填问卷吗,填个屁。用户都是不想被过度打扰的,因此设计顾客旅程,分步骤引导用户留下数据,很重要。

在顾客旅程的设计中,首次接触,首次下单是两个最重要的场景。首次接触如果是顾客主动找上门来,成交率很高,可以抓住机会了解用户需求;如果是被动推送给顾客,则要挑有吸引力的爆款商品/活动,提高吸引顾客的概率(如下图)。

放大招,数据运营全流程SOP

有了首次下单以后,就解决了数据原始积累问题。考虑到企业手头能吸引用户的商品数量是有限的,因此可以结合首单,做好后续推荐方案,轮流推荐给用户,探索其需求(如下图)。

放大招,数据运营全流程SOP

总之,好的数据不是天上掉下来的,而是结合运营动作积累出来的。运营侧目标清晰地步步引导,数据就越来越丰富,分析就越来越准。运营侧不干活,运营侧一干活就是:“全场8折,走过路过不要错过”式的无脑all in,那数据就一塌糊涂,没法继续深入。

问题2:商品质量

商品/解决方案质量,需注意区分“硬/软”区别。

硬实力:刨除营销、服务、定价,商品本身性能、质量、成本

软实力:营销、服务、定价加持后,商品实际表现

硬实力根本不用数据分析师分析,而是商品管理在选品的时候,就得注意到的。待选择的商品,性能、质量、成本和市场上同类商品有多大区别,商品管理自己都能看得到。至于单品成本,也是在采购商品时就能核算清楚的,因此商品本身就有定位(如下图)。

放大招,数据运营全流程SOP

有了硬实力评估以后,运营才好制定策略。基于硬实力评估,有一些基本运营策略(如下图)。

放大招,数据运营全流程SOP

有了基本的运营策略,数据就能评估实际表现。一个商品如果没有达到预期,那么即使有一些销量,有一些利润,也会被认为是失败的商品,需要优化更新。如果是常规套路做不动,优先提醒商品做改良;如果是差异套路做不动,或者差异套路搞下来亏损严重,而提醒运营停止骚套路,老老实实做。

很多公司做不好,是因为:缺少对商品硬质量的清晰定位,一味看销售表现,销售不好的时候,又开始各种活动加持。这样眉毛胡子一把抓,自己模糊了自己的判断。运营人员无法制定针对性方案,数据人员无法区分自然销量与活动效果,最后水越搅越浑。

问题3:触达渠道

对大部分非垄断企业来说,真正的关键在:触达用户的信息渠道。一个很现实的问题是:消费者和非垄断平台的互动太少了……消费者大部分时间贡献给了少数几个游戏、短视频、社交APP。对非垄断企业而言,想和消费者互动,手段是非常有限的。

公域:通过垄断平台推广告,成本高,没有用户积累。

私域:吸引用户加群、加企微、关注自家商城有难度,且存在感低,很容易流失。

所以,不认真考虑如何解决渠道问题,所有的画像分析、消费分析、活动推广都会失效。这是个浅显的事实。然而在实际工作中,这一点经常被忽视。企业里经常出现:“一通分析猛如虎,一看触达一点五”的问题,98.5%的用户压根不知道你的存在,分析用户画像、 RFM之类的有毛用。

因此,分析用户活跃情况,就很重要(如下图):

放大招,数据运营全流程SOP

在用户活跃的基础上,再对用户在不同渠道,对内容响应率进行分析,找出触达每一类用户的手段。

放大招,数据运营全流程SOP

三、小结

综上过程可看出,数据运营是个“干中学”的工作,只有边运营迭代,边数据校正,才能越做越好。

那些出现问题的企业,常常是把运营和数据脱离:

要么:运营干啥数据不要管,等活动做完了,变着法让数据说好,不好也得想法子说好!

要么:运营两手一摊:“我啥都不会!你要分析出来我该咋办!”而数据分析又只会:“活跃低了,要搞高!”……

]]>
数据运营的3个模型+5个方法! //m.clubpenjuin.com/263689.html Thu, 25 Nov 2021 07:32:10 +0000 //m.clubpenjuin.com/?p=263689

 

很多刚入门数据分析的小伙伴,甚至已经有做过几年数据分析的朋友在涉足不同行业或者场景的数据分析时,往往会不知道如何开始思考,一点思路都没有,然后就去咨询度娘,找找这个方法,找找那个方法,谁知有时候找到的是分析方法论,有时候找到的是数据分析方法,但是又无法准确的对这两者进行一个清晰的界定,也不知道如何有效的正确的使用这些方法论和分析方法。

先让我们看一下两者之间的定义:

数据分析方法论:是从宏观角度出发,从管理和业务的角度提出的一种分析框架,这个框架可以很好的指导我们接下来具体分析的方向和板块,如:5W2H、4P营销等

数据分析方法:是微观的概念,是指我们在具体分析过程中使用的方法,如常见的对比分析、交叉分析等

数据分析方法论的作用:

(1)帮我们梳理分析思路、确保数据分析形成结构化的体系

(2)把问题分解成有相关联的不同部分,并显示它们之间的关系

(3)为后续的数据分析开展指引方向

(4)对分析的结果可以保障一定的有效性和正确性,不容易偏离分析方向

下面我们来分别介绍几种常见的分析方法论和分析方法,在日常的分析中经常会用到。

数据分析方法论

1、PEST分析模型

PEST分析模型主要是企业对于自己所处的宏观环境的角度,从政治、经济、社会、技术4个方面分析企业现在所处的一个位置情况。

对于企业的分析完PEST之后,进一步就需要结合SWOT来分析机会与威胁。因此就要用到SWOT分析模型

2、SWOT分析模型

SWOT分析模型主要是对企业的优劣势和机会及威胁进行分析,通过不同的角度来看待公司的机会和风险及优劣势情况,相对考虑全面,对好与不好都覆盖了,从而可以更好的制定适合公司的战略发展规划

3、5W2H分析模型

对于分析用户行为分析的时候,可以通过5W2H方法的7个角度来看问题,对于电商的用户运营分析决策管理都是非常有指导性价值的。

另外常见的分析模型还有4P理论,主要是用于市场营销,分别从产品、价格、渠道、促销四个角度来看影响市场的因素情况。AARRR分析模型主要用于增长转化问题的分析,它是从获取(Acquisition)、激活(Activition)、留存(Retention)、收益(Revenue)、推荐(Referrai)5个链路关系来提高用户的增长。

常用数据分析方法

1、趋势分析

趋势分析是最常用也是最常见的数据监控分析方法,重点对于某一业务的波动进行观察,关注整体趋势下的异常值情况。

但是在实际的业务中,并不是所有的指标趋势都是有价值的,趋势分析也要选择有核心价值的指标,比如在对APP的用户进行分析,如果拿下载app用户分析和日活跃用户进行对比就可以发现,日活跃用户趋势才是对有价值的用户的行为进行观察判断,对决策有实质的帮助。

2、多维分析

在分析一个问题的时候,一个指标有时候是不能看出问题在哪里的,就需要对指标进行拆分,比如:对app的跳出率进行分析,就可以分别从用户访问深度、访问时长等多维度进行分析观察,可以找到更多可能的原因。

3、用户分群

用户分群可以从单维度分群,也可以是组合维度分群。

单维度分群比如按照用户的年龄、地域、性别等进行分群,但是往往这样用户分群比较粗糙,不能准确的刻画用户,就需要多维度组合分群。

多维度组合分群比如每天晚上登录3次以上的用户,每天白天登录小于一次的用户等。这些维度都是经过分析验证后按照用户的特点进行维度组合确认的。

4、个案研究

在用户分群之前往往不是非常清楚用户的行为有哪些,也不清楚如何开始分群,这个时候就需要抽样对个别用户进行详细的链路分析,找到大部分的用户行为事件,为用户分群建立最全的用户行为才能建立更好的用户分群。

同时通过个案研究可以很好的发现产品设计中的不足或者bug,然后有针对性的高效解决问题。

5、漏斗分析

漏斗分析是一种反应用户行为路径转化的模型,广泛用于电商网站等用户转化行为分析。也许大家都非常熟悉,但是有两个要点需要注意:

(1)总体转化和各环节转化要同时关注和分析

(2)对于整体的转化可以按照维度进行拆分下钻后进一步分析异常

常见的分析方法还有留存分析、ABtest分析、交叉分析等,可以根据不同的分析场景进行选择去解决对应的问题。

总结

针对方法论是分析的整体框架,可以在框架下根据不同的业务进行细节分析,利用不同的分析方法分析。

结合今天提到的常见分析方法论和分析方法,大家可以进行一个整理如下:

(1)战略规划用PEST和SWOT分析模型,有时个人的规划也可以

(2)市场营销用4P营销模型

(3)电商用户分析用5W2H和AARRR

对于具体的模型框架下不同的分析方法其实都是针对现象和问题找到更好的解决办法和更好的决策方案,结合过去分析经验总结一个最简单的分析角度:

(1)从大宏观方向着手:趋势分析、维度分析、漏斗分析

(2)从小用户方向着手:个案分析、样本ABtext、样本分群等

也就是当你从宏观和常规办法无法下手就从个案和细节对问题链路进行串联挖掘。

数据分析方法论是过去的市场沉淀下来的经验,可以很好的借鉴,但是也不是一成不变的,后续我们将针对性的介绍更多的数据分析方法和数据分析及挖掘案例,敬请期待

]]>
数据运营必备的5大【数据分析方法】 //m.clubpenjuin.com/215696.html Wed, 23 Sep 2020 06:06:00 +0000 //m.clubpenjuin.com/?p=215696

上次我们讲到了,在锁定导致问题发生的原因时,我们需要针对不同问题,利用各种数据分析方法,更快的锁定原因,之前讲到了【漏斗分析法】,这次补充上其他几种,和大家一起分享。

一、对比分析法

对比分析法不管是从生活中还是工作中,都会经常用到,对比分析法也称比较分析法,是将两个或两个以上相互联系的指标数据进行比较,分析其变化情况,了解事物的本质特征和发展规律。

在数据分析中,常用到的分3类:时间对比、空间对比以及标准对比

1、时间对比

最常用的就是同比环比,通过时间周期的数据对比,了解目前数据水平的高低。

同比:某个周期的时段与上一个周期的相同时段比较,如今年的6月比去年的6月,本周的周一比上周的周一等等。

环比:某个时段与其上一个时长相等的时段做比较,比如本周环比上周等等。

在分析同环比时,需要注意对比范围,以及何时该使用同比、何时该使用环比,例如在衡量某活动效果,应该同比分析上次活动和本次活动的数据。

在进行可视化输出、对同环比数据进行展示时,如果还不太熟悉同环比的计算,可以参考BDP的这个同环比功能,可以根据数据情况,自由的选择时间进行对比。

2、空间对比

即在相同时间范围内与不同空间指标数据进行对比。

例如:不同部门、不同业务人员、不同地区等进行对比,比如各省份订单销售数据的差别对比,可以得出产品的优势地区重点突破,平衡人力物力等。

3、标准对比

业务数据通常会设定目标计划,标准对比可以通过目前数据与设定的目标计划之间的对比,了解目前发展进程,完成进度等,了解差距后可以及时调整策略。

例如,在图表中设置目标值、平均值、中位数等标准,与实际数据形成标准对比,分析数据情况

二、用户分析法

用户分析是互联网运营的核心,常用的分析方法包括:活跃分析,留存分析,用户分群,用户画像等。在刚刚说到的RARRA模型中,用户活跃和留存是非常重要的环节,通过对用户行为数据的分析,对产品或网页设计进行优化,对用户进行适当引导等。

通常我们会日常监控「日活」、「月活」等用户活跃数据,来了解新增的活跃用户数据,了解产品或网页是否得到了更多人的关注,但是同时,也需要做留存分析,关注新增的用户是否真正的留存下来成为固定用户,留存数据才是真正的用户增长数据,才能反映一段时间产品的使用情况

活跃率是某一时间段内活跃用户在总用户量的占比,根据时间可分为日活跃率(DAU)周活跃率(WAU)月活跃率(MAU)等。

但产品不同,活跃用户的定义也可能不同。有的APP打开就算活跃,而有的APP必须登录才算活跃……

活跃率为何如此重要?

这个不言而喻,“一个新客户的转化成本大概是活跃客户成本的3-10倍”、“2-8原则”等都说明活跃度是多么多么地重要。作为运营人的重要kpi,你真的会分析吗?

场景案例:(以一季度为一个生命周期)

用户A下载并开始使用产品,发现可以满足他的全部需求,对产品爱不释手,基本每周都有登陆,并且登陆时长均在2小时以上。

用户B下载并开始使用产品,用了几天后便不再使用,产品更新后,觉得新功能很棒再次开始使用,之后的使用频率大约为每半个月一次。

用户C在网上搜索后随意的注册了一下,用了几天产品,觉得一般般,当产品有大量折扣或活动时,再次使用过一两次。一季度下来使用不到5次。

用户D在有拉新活动时,下载并注册之后便卸载或放弃使用,整季度使用次数为0或1。

以上四种用户,可以根据其活跃度划分为:

活跃期用户:(用户A)

用户活跃路径:新增-活跃-忠诚

对应措施:保证接触频率,但不做促销刺激

沉默期用户:(用户B)

用户活跃路径:新增-不活跃-回流-活跃

对应措施:保证接触频率,给予少量的营销折扣

睡眠期用户:(用户C)

用户活跃路径:新增-不活跃-回流

对应措施:控制有限接触,通过打折扣进行挽回

流失期用户:(用户D)

用户活跃路径:新增-不活跃-流失

对应措施:屏蔽接触,只有在“双十一”之类的大促时通知用户,需要根据用户活跃路径来确定运营营销方案,并促进用户最终转化。

那对活跃率和留存情况等数据的监控,要如何发现是否正常呢,需要关注数据变化的几种指标:

1、波动幅度:短时间内是否有大幅度波动

2、变化持续性:数据波动是否呈现持续性

3、变化规律性:数据变化是否是有一定规律的

4、各指标变化关联性:关注的各指标的变化间是否有一定的关联,比如相同时间升降、变化趋势相同等

三、细分分析法

在数据分析概念被广泛重视的今天,粗略的数据分析很难真正发现问题,精细化数据分析成为真正有效的方法,所以细分分析法是在本来的数据分析上做的更为深入和精细化。

例如分析北京地区课程转化情况,要细分到学生类型不同,小初高中不同阶段学生,细分到北京不同地区,海淀、朝阳、西城各地区情况不同,细分到不同学科等等,在数据分析的过程中,由粗到细,通过粗略的数据展示整体情况,细化到局部,分析具体原因。

细分分析法的重点就是将数据进行分类、按类别进行分别的分析

实现方法提供2种:

1、多层钻取

将每层数据进行嵌套,点击不同维度数据,进行细分分析,通过多层钻取,直接在图表中点击查看细分数据,每层数据均可选择适合的图表类型进行展示,

2、聚焦下钻

对于数据中的一些重点数据,进行聚焦分析,在整体分析中,想要查看特别关注的部分数据详情,可以使用聚焦及下钻的功能,进行自由分析

四、指标分析法

在实际工作中,这个方法应用的最为广泛,也是在使用其他方法进行分析的同时搭配使用突出问题关键点的方法,指直接运用统计学中的一些基础指标来做数据分析,比如平均数、众数、中位数、最大值、最小值等。在选择具体使用哪个基础指标时,需要考虑结果的取向性。

平均数:可以表现同类数据在不同的时间段的数据情况,用于总结趋势和在普遍规律中发现问题。另外,也可以对比在不同地区、不同情况下的同类数据的差异情况,比总量或者单独值更具有说服力

中位数:又称中值,是指按顺序排列的一组数据中居于中间位置的数,代表一个样本、种群或概率分布中的一个数值,其可将数值集合划分为相等的上下两部分。因为是通过排序得到的,它不受最大、最小两个极端数值的影响。例如在统计本季度市场招聘薪资时,由于可能有少部分属于最大值或最小值,用中位数呈现更为有意义。

部分数据的变动对中位数没有影响,当一组数据中的个别数据变动较大时,常可以用它来描述这组数据的集中趋势。

最大(小)值

最大(小)值常可以用来展现数据中的“异常”情况,在某些数据分析中,异常值可以忽略,但有些最大(小)值的分析,可以研究影响因素,从而找到突破性的动作或可避免的方法,从而推动业务的增长。

五、漏斗分析法

漏斗分析模型是业务分析中的重要方法,最常见的是应用于营销分析中,由于营销过程中的每个关键节点都会影响到最终的结果,所以在精细化运营应用广泛的今天,漏斗分析方法可以帮助我们把握每个转化节点的效率,从而优化整个业务流程。

其中,我们往往关注三个要点:

第一,从开始到结尾,整体的转化效率是多少?

第二,每一步的转化率是多少?

第三,哪一步流失最多,原因在什么地方?流失的用户符合哪些特征?

漏斗分析通常帮我们解决的不止是转化率的问题,精细化的漏斗分析,还可以帮助我们:

1、漏斗对比分析,从差异中找到优化方法  对比不同用户群体、不同营销方式等的漏斗分析,可以帮助我们快速发现用户特点、营销方式的转化优势,找到在转化环节中,针对不同用户可优化的步骤,或营销方法中可强化的地方。

2、通过转化率定位转化最有效的关键方法   绝大部分的商业变现流程,都可以梳理出漏斗,通常我们会采取多种方法希望增加转化,漏斗分析可以帮助我们很好的梳理整个业务流程,明确最重要的转化节点,所以在分析的过程中,可以找出是否有其他不重要的过程参与,影响了主要流程的转化,从而进行取舍优化

漏斗模型典型案例

AARRR分析模型

Acquisition、Activation、Retention、Revenue、Refer,即用户获取、用户激活、用户留存、用户收益以及用户传播。

通过图可以看到,这是一个典型的逐级减少的漏斗图,通过对于每个环节转化率的分析变化,来确定实现最终转化的关键方法,不断进行优化迭代。

在目前的互联网产品普遍红海的情况下,增长专家们也对模型进行了新的思考和优化,在AARRR模型中,最为关注的是用户的获取,通过扩大漏斗顶端的流量池,实现最终转化的提高,在目前市场情况下,获客已经很难成为增长实现的最重要指标了,重新定义的RARRA模型,帮助人们把关注重点从用户获取转移到用户留存上,这就需要更多的去关注用户活跃和留存数据,这个也是后面我们会说到的用户分析方法中重要的分析指标。

作者: 小草莓?

来源:小草莓?

]]>
数据活动运营方法,就这么简单! //m.clubpenjuin.com/213655.html Wed, 09 Sep 2020 09:29:13 +0000 //m.clubpenjuin.com/?p=213655

电商平台A,成立近10年,算不上行业TOP,但在细分领域也算有些头脸。

今年不景气,APP日活从年初50万一路下跌,到现在,运营死乞白赖地拽着40万的底裤,老板绞尽脑汁地哄着投资人

开会。

“这样下去不行,得想想办法。”老板掐灭了还没燃掉一半的烟。

“谈几家合作平台,互换资源搞些流量?”

“投几个内容KOL,或者投点广告主?”

“加做几场促销吧,配合Push能涨点日活”

BD、市场、运营建言献策,老板沉默不语。

18年移动端不景气,行业都在保存量,没人敢真金白金地大量做投放。促销或许可以止损,但要彻底解决问题,必须有新流量的进入。

沉默了好一会儿,老板问:“这么些年在平台下过单的流失老客,大概有多少?”

“八九百万吧。”

“想想办法,把这些用户捞回来点。”

< 方法 >

老板是对的,从经验看,流失老客召回一定比拉新成本更低,更精准,流量质量更好。

  • 用什么触达?

八九百万的老客,曾经在注册、下单过程中留下了他们的手机号、姓名、地址等信息,触达他们并不难,最简单、高效、低成本的方式应该是短信

  • 告诉他们什么?

发送什么样的短信,才能吸引他们回来呢?

就电商而言,一般有三种玩法:

1. 促销优惠,如:夏日爆款美妆全场3折起,SK-2神仙水仅售¥698,速抢手慢无!;

2. 赠送优惠券,如:周末来临,送你88元美食神券,点击链接领取!

3. 商品领取,如:你太久不来,老板说我失职,送你价值59元ray面膜,快来领取!

第一种方法成本较低(仅需短信费用),但响应较差,一般用来配合促销活动,不适合老客召回。第二、三种方法在短信或Push中响应一般都不错。但作为非自营平台,优惠券意味着1:1的高补贴成本,同时,对于购买需求不明朗的流失老客,优惠券非刚需,吸引力有限。相对来说,“爆款商品免费拿”不仅通用性强,大规模采购的成本也更低。

所以,我们采用第三种方法:短信通知这些流失老客,回归免费领礼品。

  • 吸引他们去哪?

去哪领?APP吗?

流失老客均为180天未访的用户,绝大多数已卸载APP,重新激活APP行为成本太高,不切实际。

不去APP,去哪?

在电商行业,“免费领”活动一般伴随着拼团、分享、砍价等社交玩法,通过裂变拉新进一步缓冲成本,如拼多多的助力砍价,每日优鲜的0元吃水果等。而社交裂变最好的温床,无疑就是小程序。A平台小程序作为在微信生态内的延伸,功能轻量齐全,作为承接老客回归的第一个据点,再合适不过。

综上,我们将通过短信通知流失老客回归有礼,将其引入小程序,并通过社交玩法生成一轮裂变。

活动流程如下:

上图流程中,无论是主态或客态、开团或参团,在其成团或失败后,都不意味着运营工作的结束。用户参与到这个阶段,我们已经拿到其微信OpenID与推送模板消息的权限,此时根据用户所处的状态,可针对性推送促销商品、优惠券或其他活动来促使、承接用户的进一步转化

活动背景和策划都已经很清楚,下面我们就聊聊,如何用数据追踪和评估活动效益。


< 数据 >

对于以上活动的效果数据评估,我们从四个维度进行:

  1. 响应数据
  2. 裂变数据
  3. 价值追踪
  4. 成本评估

这四个维度也基本适合用来评估所有微观运营活动

下面我们逐一展开,并以前文活动为基础举例说明。鉴于商业规则,数据会有合理范围的修整。

1. 响应数据

响应数据,就是我们常说的“漏斗”

假设我们在今日头条投放了一则广告,一段时间内,1000人点击了广告,200人点击后进行了注册,50人注册后根据提示下载了APP,最后只有10人在APP完成了消费转化。

在这里,从1000到10,就是一个简单的漏斗。任何一个活动,从触达后用户的首个特定动作发生到最终的转化,就是一个漏斗漏斗展示了一次活动的直接成效,并将成效分解到各个步骤,为结果提供每个层次的归因

下面是本次老客召回活动的转化漏斗:

“输入口令比例”较低,可能是因为短信文案不够锋利,商品选得不够诱人

“分享链接人数”和“开团人数”两个环节比例都还不错,说明用户输入口令后,转发与开团的引导与流程清晰简洁,用户操作门槛较低

“成团率”综合为7.79%,低于行业水平。猜测可能是因为3人成团人数较多,难度太大,也可能是因为这些用户嫌麻烦,或是不愿意滥用自己的社交价值

通过漏斗,我们既可以看出活动整体转化水平,也可以细究每一环节的数据表现,问题出在哪,一目了然

“问题出在哪”只是漏斗解决的第一个问题,更重要的是“如何解决”。以上是漏斗的“主干”,下面介绍漏斗的“枝干”

对于“输入口令较低”的问题,我们猜测可能与文案、选品、发送时间等有关。选品为例,为了对比测试,我们在活动前为每组人群设置少量人数(5000人)的对照组,推送短信来验证对这个人群来讲,什么样的商品更有吸引力

显而易见,24岁以下用户更愿意免费拿到眼药水,面膜对于25~29、30~39岁用户更有吸引力;40以上用户则更倾向于牙膏

我们发现,以上的表格包括的不仅是“选品”这一个变量,而是“年龄分层”和“选品”两个变量的交叉。在活动中,影响某一环节结果的变量往往数量繁多、相互纠缠,本活动为例,影响“输入口令比例”的因素,与其说是单个变量,不如说是“年龄与选品”、“年龄与文案”这样的变量组合,甚至是“年龄”、“选品”、“文案”、“发送时间”等所有相关变量的最优化组合

所以,漏斗的“枝干”,就是为了寻求各个变量的最优化组合。实操过程中,变量组合后会产生指数级增长,三五个变量就可能组合出上百种情况,一一测试是不切实际的。所以,变量最优化一定要建立在业务判断的基础上,比如该例,从业务经验出发,不同年龄的用户商品需求应该不一样,所以我们做了“年龄”与“选品”的变量测试;同样,我们认为“选品”和“短信发送时间”并无明确关联,所以就把“短信发送时间”作为单独测试的变量。无论是猜想的验证,还是洞见的挖掘,数据都一定只是业务的工具,而非业务本身

2. 裂变数据

在一次运营活动策划中,如果你没有把裂变作为整个活动的出发点,那起码也要把它作为一个关键的价值环节。

无论是饿了么式的红包分享、拼多多式的助力砍价,还是每日优鲜的0元吃水果、携程的助力抢车票,亦或是近期朋友圈现象级的网易荣格心理测试、连咖啡的“我的咖啡店”,这些教科书级的活动或玩法,不论转化导向或传播导向,都是围绕“社交”这个价值点展开的。哪怕是微信生态以外的活动,如支付宝的春节集五福,社交性极强的“赠送福字”也是其活动参与转化的最核心来源。

活动之于投放,之所以有四两拨千斤的机会,靠得就是转发、分享、点赞等社交传播行为。

说了这么多,无非是想论证,在运营活动越来越社交化的当下,“裂变数据”的追踪分析绝不是可有可无,逐渐成为评估活动成效的重要数据指标。

下面回归到我们的案例中。

从活动SOP图中可以看出,这次活动的裂变方式主要有2种:

  • 主态裂变:用户为了0元拿到商品,将活动分享到3个不同的群。群中成员看到链接,亦可分享3次获得0元开团机会,成为新的主态。
  • 客态裂变:主态用户开团后邀请新用户参团,邀请成功则完成一个客态裂变。

首轮裂变展示了短信推送用户带来的第一轮裂变效果后续裂变活动链接被短信推送用户分享到39859个群后,引发的不可控裂变。由于活动页埋点原因,后续裂变无法继续分层追踪,虽然这很有必要(不同年龄用户转发到的群很可能完全质量不同)。

分享次数和后续裂变中的开团数代表了主态裂变;参团人数代表客态裂变

  • 从表格看,首轮+后续裂变共计分享到39859+13477=53336个群,然而,点开链接的仅有11211人,平均每个群仅有0.21人次点击,这是个非常低的数字,说明我们链接的表现形式、利益点都很可能存在大的问题
  • 后续裂变相对于首轮裂变,在人均分享次数、参团人数比例、成团率上都有较大下降,一方面是因为两拨用户接触到的信息不同,另一方面是因为接收到短信的本就是A平台的老客,较为精准,而裂变产生的用户参差不齐无法定向,精准度较差
  • 成团率低、参团人数少的问题,我们在前文也有分析。

综上,这次活动的裂变并不理想,分享环节的展示、选品、文案等方面都需要优化,如优化后依然不理想,可能整个活动的逻辑都要重新考虑

3. 价值追踪

拿着响应和裂变数据,运营胸有成竹地进入老板办公室。

他向老板提纲挈领地汇报了转化与裂变数据中的要点,并作出了业务层面的归因,还对下一步执行计划的优化提出了一些建议和安排。

老板看着数据微微点头,同时思考着什么。

这时小运营说了一句总结的话,惹怒了老板。

“我觉得这次活动效果还可以,裂变的逻辑优化一下,可以大量做”

一顿臭骂。

事实上,完成转化用户的价值追踪之前,不应该下任何结论

每一个用户的转化都意味着真金白银的成本和补贴,必须由后续购买所带来的利润填平。如果活动所带来的用户复购和活跃都极差,那么无论转化率多高,这个活动都是失败的。因为你的活动招来了一群让运营界闻风丧胆的人——羊毛党

强调一下,所谓的“转化”,并非只有完成了开团成团才算,在分享、注册、参团等任何环节蹦失的用户,只要与我们发生关系,都算转化,只是转化程度不同。

为了提高用户转化后的后续表现,运营们通常会用push或短信的手段进一步激励。如该例中,对于开团成功、开团失败、参团成功、参团失败以及分享链接不足3次等用户,我们会根据其基于转化程度的行为倾向性在24小时内为其个性化推送优惠券、优惠商品、活动链接等,为的就是促进后续转化,尽力承接住这些用户。

价值追踪数据较为复杂,基于用户分层、时间分层、行为分层等,可以形成一个庞大的价值追踪体系。篇幅考虑,笔者为本例价值追踪做了简化,分以下两部分:

(1)关键价值追踪

这个表有3个要点:

1)追踪谁

当然是转化的新客。但是一定要分层追踪,除了短信推送的年龄分层,还要纳入转化程度的分层,这样才可以追踪到不同转化程度的用户间的价值差异

如上表,我们可以看到“开团成团用户”相对于“开团未成团用户”有更高的复购频次;裂变用户各项价值均逊于推送人群

2)追多久

根据产品使用频率、用户生命周期来定。一般电商追踪至90天或180天,如因活动优化迫切需要结论数据支撑,可提供短期追踪数据。

3) 追什么

一定是追踪用户之于产品最关键的几个价值指标。对于自媒体可能是点击、转发、打赏;对于游戏可能是活跃、付费;而对于电商平台,自然就是GMV、订单数、客单价这些交易数据了。

至此,我们得出了每个分层用户在不同时间段贡献了多少GMV,再乘以平台交易费率,很容易算出平台获得的利润。通过这些利润,我们一方面可以直观判断出不同分层用户价值,另一方面可以通过与成本的对比,判断活动的效益,决定活动是否可以产品化或规模复制

在产品相对简单,活动规模较小的情况下,以上价值追踪基本可以证明活动价值。但是如果产品生态复杂,用户消费行为多样,那就有必要对用户行为做分层追踪

(2)行为分层追踪

在同一个产品中,不同用户基于不同的行为,为平台贡献了不同的价值,共同构建一个完整的生态。

我们以最具代表性的UGC内容平台知乎为例,其用户行为及对应价值大概划分如下:

相对于知乎,电商平台的生态可能更为复杂

电商生态中,并不是只有“买”和“卖”那么简单。搜索购买型用户贡献了大部分GMV,是平台生存的基础;喜欢“逛”的用户热衷于发现式购物,除了贡献可观的GMV之外,还通过点击、停留等行为反馈了不同主题banner、模块以及商品的热度,从而为运营工作指明方向;那些热衷于拼团和助力砍价的用户,聚集在微信中通过传播劳动换取平台的优惠,为平台不断引入新的流量;甚至目前大多数电商平台,都引入了攻略、评测等内容子生态,而喜欢写评测心得的用户就是这个子生态的核心支撑。

因此,我们不能仅根据购买力判断用户价值,也就是说,不能因为活动吸引来的用户买得不够多,就定性活动失败。因为这些用户,很可能贡献着其他重要的生态价值。

从数据看,这次活动所带来的用户在开团、助力砍价、关注服务号等方面比较突出,说明用户多聚集在微信小程序中,有着不错的传播价值,猜测可能是由于活动玩法为拼团,所以带来的流量或多或少有点羊毛属性,这也降低了我们对其复购价值的期望。这些用户更适合在小程序中为平台进行外围传播

4. 成本数据

“成本数据”和“价值追踪”是活动的阴阳两面。价值与成本的差值,基本代表了整个活动的初步收益。

就本次活动而言,成本主要产生在3个地方:

  • 短信成本,流失老客触达短信约为0.03元/条;
  • 免费商品补贴成本,所有开团成团订单,都需要付出约20元的商品成本;
  • 后续激励补贴;用户转化后,我们可能会推送些优惠券促进复购,优惠券是这个过程中的主要成本。

在第三步我们追踪到复购总GMV,乘平台费率得出利润,再减掉以上三条成本之和,得到的就是活动利润。

成本数据逻辑简单,唯一值得注意的是是否要分层。不同分层的用户价值不同,所消耗的成本也不一样,如果用同样的分层追踪价值和成本,就可以计算不同分层的ROI,找出盈亏平衡点,选择性推送以提高整个活动的收益。但多数时候,基于用户名单有限、数据埋点等限制,基于分层ROI优化很难实现。所以,分不分层,视业务情况而定。

最后,奉上思维导图:

 

作者:吕晨龙

来源:运营狗Oliver

]]>
数据运营实操案例:信息流feeds产品优化 //m.clubpenjuin.com/212797.html Fri, 04 Sep 2020 01:00:41 +0000 //m.clubpenjuin.com/?p=212797

 

本文作者带领大家对信息流的基础推荐引擎和影响因子有了初步了解,并通过信息流feeds数据运营中的一个实际案例梳理总结了数据运营的价值,供大家一共学习和参考。

一、信息流引言

信息流(Feeds)的形态已经近乎无所不在,贯穿在我们24小时的互联网生活的当中。当你通勤时在地铁刷刷今日头条了解最新资讯,信息流已经把一篇篇时事热文整齐地排成队列等待你的阅读;当你想要好好美餐一顿,大众点评的信息流给你“种草”了不少同城餐厅;夜不能寐想剁手来犒劳下辛苦工作一天的自己,淘宝上琳琅满目的推荐商品流怎么那么精准,刷得停不下来……

尽管信息流这种形态已经广泛应用,但其实最早的应用是在资讯内容场景,始于Facebook在2006年发布的资讯信息流(News Feed)功能。

平台通过既定的算法、规则排序后聚合内容,用户可以在单页面内进行流畅而高效的内容消费。用户不再需要如移动互动网史前时代那样,在门户网站、博客站点之间进行频繁地跳转;平台也通过提供聚合的内容展示平台,更高效地把用户留在了自己的辖区内。

信息流的英文是“Feed”,实在是用得很妙的一词了。Feed在英文里是“喂养”的意思,生动地刻画了信息流场景里,用户被平台按一定的顺序“投喂”内容的场景。

用户消费的内容时间是有限的,平台如何在有限的时间内,给用户投喂TA最喜欢消费的内容、从而让TA在平台消费更多的内容(从而给平台带来更高的潜在商业价值),就是所有Feed场景运营人员经年累月在不断钻研的“推荐排序”问题了。

二、信息流的基础:推荐引擎

推荐引擎的核心,是“如何把合适的物品推荐给合适的用户”,所以“物品”和“用户”之间联系的建立,是推荐算法里最核心的命题。整个推荐的过程基本可以总结为“召回”→“排序”→“调权”→“输出结果”的过程,对这个过程进行一个简单的比喻,来帮助大家理解这个过程。

大家应该都曾经在学生时代参加过军训,军训最后的分列式检阅是整个军训过程的高光时刻。那该如何对队列进行合理的排布呢?

  • 首先,教官会需要先“召回”A班的所有学生来到操场上,等待进行排列,只能是A班的学生,其他B、C班的同学先不需要参与;
  • 紧接着,教官会要求同学们按从高到矮的规则进行“排序”,这样队伍看起来就不会参差不齐;这时,虽然同学们已经按从高到矮排好了,但可能有个别学生汇演时需要在军乐团做演奏,教官就需要对这些学生进行“调权”,把他们排除在外;
  • 最后,按这样的规则排列下来的队伍,就是最后汇演时A班的队伍排布了。

推荐算法是一门颇深的学问,技术性也很强,但因为本书面向的读者主要是运营人员,所以笔者尝试从更显性的层面总结如今影响信息流排序的主要影响因子:

  • 时间因子。时间是比较基础的一个排序影响因子,很多内容产品最初都以时间为第一排序因子,比如公众号最初则是完全的时间排序。但随着内容不断增多,如何利用推荐算法帮助用户找到其最关注的内容,则是其他因子的命题。
  • 用户画像因子。这个因子的假设前提很直观,“萝卜青菜,各有所爱”。虽然我们常说不能把人“标签化”,但对于算法来说的确只有“标签化”才能更好地认识一个人。打个比方,如果你有“互联网从业人员”的标签,那给你推荐的内容自然会更多地倾向于互联网行业资讯、科技新动向等;如果你有“孕期妈妈”的标签,那给你推荐的内容也会有更多育儿类资讯。
  • 兴趣因子。同样是对人的理解,用户画像更多关注的是人的“属性”,兴趣则更多关注的是人的“爱好”。部分产品对用户的兴趣理解方式比较直接,让用户在新进时勾选自己的兴趣领域,从而推荐给用户对应内容;其次还可以通过一些侧面的办法,比如“用户在某条资讯中阅读的时长”、“用户点击某类资讯的概率”等方式侧面去了解用户的兴趣。
  • 正负反馈因子。顾名思义,即是用户对平台推荐的内容作出的正面或负面的反馈行为。正面反馈,如“点赞”、“一键三连”行为;负面反馈,如“举报”、“不愿再看到”等行为。许多用户也深谙此道,在接触一个新的信息流产品时会用这个方式去“驯化”信息流,“调教”出最适合自己的内容。
  • 互动因子。可以认为是正负反馈因子的进一步细化,比如B站许多UP主常说的“转评赞”,则是希望通过用户的转发分享、评论、点赞等互动指标,帮助其内容被算法认为是优质的内容,从而获得更高的曝光。另外,用户的一些具体行为,比如“购买”,对推荐算法来说也是一个很重要的对相关物品提权的信号。
  • 社交因子。对于具有社交关系的产品来说,推荐算法就有更多的可发挥空间了。具有最得天独厚优势的莫过于微信,沉淀了中国十多亿用户的深厚社交关系信息。比如“看一看”的内容排序,则用到了用户的社交关系做算法推荐,某个内容如果有越多我们的好友“在看”,那其在我们的“看一看”中的排序则会更优。
  • 热度因子。时事变化瞬息万变,当下的突发新闻事件往往会引起更多人的关注,导致热门的时事事件得到更高的推荐排序。社会潮流不断更迭,最近热播的影视剧或最新潮流风向,也会使一些商品成为最近热门,从而获得更高推荐排序。
  • 人工运营干预因子。基于推荐算法的排序基本能解决大部分的效率问题,但对于部分劣质内容,如虚假消息、低俗内容,则需要人工运营的干预,对其进行降权或过滤。

三、难题:资讯Feeds如何做冷启动?

讲到这里,给大家分享笔者此前运营一款工具产品的经历。大多工具产品的困境大家可能都有所了解:用户停留时间长、粘性差,从而导致变现的效率和方式都很有限。市场上竞品众多,如果不能快速从数据指标上证明我们产品的价值,那整个产品都面临着被砍掉的风险。

于是,如何提高用户提高时长,成了我们团队内一个很重要的命题。我们这款工具产品具有WiFi连接的功能,此前用户在连接WiFi成功后跳转的落地页就是一个“连接成功”的页面,除此之外,没有别的承接;

但此时用户处在操作完成的情绪高点、且在流量不敏感的WiFi场景,我们想,是不是可以通过承接资讯Feeds的内容,从而提供给用户一些内容消费的价值,同时还创造了一个商业化变现的场景?

但我们是工具产品的团队,此前完全没有内容运营的经验,要如何从0到1做一个资讯Feeds出来?分析了我们团队的现状,我们决定从以下几个方面快速启动:首先,资讯内容从哪儿来?我们的一些兄弟产品有现成的资讯内容,但具体的推荐算法需要我们自研;我们的算法团队虽然没有内容推荐的经验,但在软件分发上推荐的经验,也有异曲同工可借鉴复用的地方。

巧妇难为无米之炊,“米”和“巧妇”都已具备,但要做成“炒饭”还是“汤饭”我们的用户才觉得最好吃,我们得多尝试才能得出结论。

推荐排序的因子那么多,但对于我们来说,因为工具产品的属性,所以能用的并不多。根据我们的情况,我们决定做如下三组的A/Btest实验:

  • 基于用户画像排序。我们可以获得的用户属性数据有:用户的软件安装列表数据,可以一定程度推测用户的喜好;用户的地理位置数据,可以推荐一些本地新闻、附近景点等资讯。综合这两方面的用户数据,混合给用户推荐合适的资讯内容。
  • 基于热度排序。因为我们拿到的资讯内容并没有附带在其他平台的热度数据,所以热度排序在我们产品中是相对滞后的过程,需要用户不断通过点击行为去“投喂”给算法进行学习,从而把产品内更热门的内容推荐给更多的用户阅读。
  • 基于资讯发布时间排序。相当于是一个基础对照组,不对资讯做太多算法排序上的干预,用于对比前两组实验的效果。

基于三组实验的设定,我们选定了三组随机测试的用户群进行策略的投放,并且设定了“平均资讯消费时长”作为关键评估指标。等待实验效果回收的时间有三天那么漫长,这三天的期间我们团队内也在打赌哪个策略表现会最优。读者们,你们也来猜猜哪个策略的表现会最好呢?

四、分析:找到问题更深层的原因

团队内的打赌,基本都集中认为是前两组的策略会更优。认为用户画像更好的同事的观点直截了当,用户会对与自己更相关的内容更感兴趣。认为热度排序效果会更好的同事也很在理,更多人点击的内容往往是猎奇新鲜的,自然也会吸引更多人阅读。

但我们运营人员回收整理了实验数据后,却有点大跌眼镜:最不为大家青睐的基于时间排序的方案三,竟然“平均资讯消费时长”都要优于前两个方案。团队内一时间有点泄气,对算法团队同事的技术能力质疑也在暗暗有声。

作为运营人员,此时我们需要通过数据分析去多走一步看看:数据指标所呈现的,就是全部的真相了吗?

为了分析这个问题,首先我们对问题进行了拆解。

实验的数据指标上:

  1. 我们设定的数据指标有没有问题?
  2. 数据指标的计算有没有问题?
  3. 各实验方案的数据指标计算是否都在同一个口径上?

实验的方案设计上:

  1. 实验组用户的选择上是否足够随机?
  2. 实验策略所需要的数据需要齐全?
  3. 实验策略是否对其用户组完全生效?

拆解分析后发现,我们看到前两组方案数据指标不好的现状,并不尽然是全部的真相。首先我们发现,“平均资讯消费时长”的指标设定存在一定问题。因为我们的产品属性毕竟是工具产品,大部分用户在连接上WiFi后是用完即走,资讯Feeds注定只是给一部分相对有闲的用户的功能。

所以,实验组之间用户的“平均资讯消费时长”十分离散,方案三中存在个别极端值用户拉高了整体平均时长数据。为了解决这个问题,我们在计算时可以对极端值做一定处理,并增加“平均资讯点击率”的数据指标,可以更客观地评估各方案之间的效果。

其次通过分析还发现,方案一和方案二由于数据采集上的原因,并没有完全实现其策略各自的效果。比如方案一“基于用户画像排序”,许多实验组用户由于安卓权限限制,安装列表数据不全;对部分用户IP的地理位置识别也不够精准,测试发现给有的在广州的用户推荐了北京的本地新闻,自然也会影响策略的效果。

比如方案二,由于部分“标题党”内容点击率很高,所以导致实验组用户首屏全是“标题党”内容,内容质量很低,用户点击后也很快跳出,导致策略的实验效果很差。

五、数据运营思维的重要性

如果我们没有对数据指标呈现出来的情况做进一步分析,单看实验的结果,我们可能直接就会认为对于我们的用户,“时间排序”就是最好的方案了,以后都应该往这个方向去发展,所谓模型算法的优化也都没有必要了。但只有通过分析,才能更清晰地看到事实的全貌,不断提出优化方案进行迭代。

这里体现出的,是问题拆解思维的重要性,是有逻辑的问题分析思维的重要性。希望通过本书,可以跟读者你分享这些思维框架,成为一个更优秀的运营。

写在后面

后续在平台上会分享更多数据运营、互联网产品(或夹带一些个人的艺术爱好私货)的文章,欢迎各位交流!

 

作者:黄一元

来源:黄一元

]]>
8大数据分析模型,运营必备! //m.clubpenjuin.com/206004.html Fri, 24 Jul 2020 06:21:09 +0000 //m.clubpenjuin.com/?p=206004

 

你可能知道数据分析有八种模型,但是你知道它们具体是什么吗?应该怎样去分析和构建呢?本文作者就对八大数据分析模型做出了分析和总结,能够解决你的疑惑,希望看完本文能够有所收获。

一、用户模型

“不仅要知道用户当下在想什么,更要知道用户背后在想什么,以及用户正在经历着什么。”

传统用户模型构建方式:

  • 用户模型:基于对用户的访谈和观察等研究结果建立,严谨可靠但费时;
  • 临时用户模型:基于行业专家或市场调查数据对用户的理解建立,快速但容易有偏颇。(缺乏时间,资源的情况下)

为了节省时间,降低风险,产品团队往往尽快将产品推向用户,快速试错,在这种场景下如何构造用户模型?

  1. 整理和收集已经获得的任何可认知用户的经验和数据,将这些信息映射成为用户的描述信息(属性)或用户的行为信息,并存储起来形成用户档案;
  2. 实时关注自身数据的波动,及时采取行动;
  3. 记录用户的行为数据而不是单纯地为用户打标签;
  4. 360°覆盖用户全生命周期的用户档案。

用户的每一步成长都通过行为记录下来,基于用户所在生命周期的不同阶段,针对新用户、流失用户、活跃用户、沉默用户分别采取有针对性的拉新、转化、留存等运营策略。

二、事件模型

1. 事件是什么

就是用户在产品上的行为,它是用户行为的一个专业描述,用户在产品上的所有获得的程序反馈都可以抽象为事件,由开发人员通过埋点进行采集。

通俗讲就是:将一段代码放入对应的页面/按钮,用户进入页面/点击按钮的本质是在加载背后的代码,同时再加载事件采集代码,这样就被SDK所记录下来了。

2. 事件的采集

事件:用户在产品上的行为

属性:描述事件的维度

值:属性的内容

采集时机:用户点击(click)、网页加载完成、服务器判断返回等。在设计埋点需求文档时,采集时机的说明尤为重要,也是保证数据准确性的核心。

举个例子:在采集过程中如果没有明确时机,当用户点击了注册按钮,由于用户输入了错误的注册信息实际没有注册成功,可能仍然会进行记录,这样在统计注册成功事件的时候就不是准确的。

而正确的采集时机描述应该是“服务器返回注册成功的判断”。(日本官网采集的就是返回激活成功或者失败页面)

3. 事件的分析

人数:某一事件(行为)有多少人触发了;

次数:某一事件(行为)触发了多少次;

人均次数:某一事件(行为)平均触发多少次;

活跃比:在一个时间区间内,触发某一事件的人数占当前时间段内所有活跃人数的比。

4. 事件的管理

当事件很多时,可以对事件进行分门别类地管理。同时,可以从产品业务角度将重要的用户行为标注出来,以便可以在分析时方便、快捷地查找常用、重要的事件。

三、漏斗模型

漏斗模型帮助你分析一个多步骤过程中每一步的转化与流失情况。

举例来说,用户下载产品的完整流程可能包含以下步骤:

我们可以将如上流程设置为一个漏斗,分析整体的转化情况,以及每一步具体的转化率和转化中位时间。

我们需要将按照流程操作的用户进行各个转化层级上的监控,寻找每个层级的可优化点;对没有按照流程操作的用户绘制他们的转化路径,找到可提升用户体验,缩短路径的空间。

更好的利用漏斗模型:

  • 细化每一个环节,展示到点击之间?点击到下载之间?下载到安装之间?安装到体验之间?
  • 拥有埋点意识和全局观念,才能够有效采集,为每个环节的漏斗优化做出决策依据,推动各个部门优化

四、热图分析模型

1. 什么是热图分析模型

反映用户在网页上的关注点在哪里,尤其对于官网首页来说,信息密度极高,用户究竟是如何点击,如何浏览的效果图。

按计算维度划分,热图可以分为点击热图和浏览热图:

1)点击热图

追踪的是鼠标的点击情况,进行人数、次数统计并基于百分比进行热力分布,点击热图又分为两种,一种是鼠标的所有点击,一种是页面可点击元素的点击。前者可以追踪页面上所有可点击和不可点击位置的被点击情况,后者只追踪页面上可点击元素的点击情况。

2)浏览热图

也称注意力热图,记录的是用户在不同页面或同一页面不同位置停留时间的百分比计算,基于停留时长。

2. 热图分析模型中的新特性

1)面向特定人群的分析与人群对比

比如理财产品,投资用户和未投资用户关注点肯定不同。

2)聚焦分析

  • 点击率= 点击次数/当前页面的浏览次数
  • 聚焦率=点击次数/当前页面的点击总次数

3. 应用场景

  • 落地页效果分析
  • 首页流量追踪
  • 关键页体验衡量(产品体验和下载页面)
  • 自定义留存分析模型

五、自定义留存分析模型

1. 留存定义和公式

1)定义:满足某个条件的用户,在某个时间点有没有进行回访行为

2)公式:若满足某个条件的用户数为n,在某个时间点进行回访行为的用户数为m,那么该时间点的留存率就是m/n

2. 三种留存方式

1)N-day留存:即第几日留存,只计算第N天完成回访行为的用户

2)Unbounded留存(N天内留存):留存会累计计算N天内所有完成过回访行为的用户。

3)Bracket留存 (自定义观察期留存):N-day留存和Unbounded留存都是按照独立的天/周/月为观察单位计算,但有时候我们不希望受限于这种固定时间度量,我们希望划分为几个观察期:

  • 第一个观察期:次日
  • 第二个观察期:第3日-第7日
  • 第三个观察期:第8日-第14日
  • 第四个观察期:第15日到第30日

3. 自定义留存

上述三种留存方式,都是对时间的限定,对留存的定义都是用户打开了APP或进入了网站。

自定义留存是基于业务场景下的留存情况,比如阅读类产品会把看过至少一篇文章的用户定义为真正的留存用户,电商类产品会把至少查看过一次商品详情定义为有效留存。

1)初始行为

初始与回访是相对的概念。

2)回访行为

与初始行为的设定是并且关系。用户的初始行为可以理解为上一次行为,回访行为即理解为下一次行为。

对初始行为和回访行为的设定本质上是在进一步筛选用户群,在滴滴的一次增长分享会曾提到过“抢了红包的用户后来打了车的日留存”,即初始行为是抢了红包,回访行为是打了车。

“抢了红包的用户打了车的3日留存”——即初始行为是抢了红包,回访行为是打车,看这部分人的第三天留存。

六、粘性分析

1. 定义

对活跃用户使用产品的习惯的分析,例如一个月使用了几天,使用大于一天,大于七天的用户有多少。

例如某些产品上线了新功能,用户使用需要签到,可以由此分析出用户的使用习惯,评估新功能的吸引力和健康度。

2. 作用

使用留存分析,了解产品和功能黏住用户的能力如何,用户喜欢哪个功能,不同用户在同一功能在适用上的差异,有助于科学评估产品,制定留存策略

3. 举例

股票APP,已投资用户和未投资的用户触发功能【查看股票市场】的次数。

七、全行为路径分析

行为路径分析分为:漏斗分析和全行为路径分析。

1)与漏斗分析模型不同,漏斗分析模型是分析既定的行为转化,例如电商产品,分析从查看产品详情到最终支付每一步的转化率。

2)而全行为路径分析是对用户在APP或网站的每个模块的流转情况,挖掘用户的访问模式,从而优化产品或网站

一般可用树形图表现,如下图,一个线上培训网站,用户大都会打开搜索课程,所以需要优化搜索课程。

而在第一次搜索课程后,用户并没有搜索到想要的课程,又进行了第二次搜索,因此可以将用户搜索频率高的关键词设置成可点击元素,链接到用户使用频率高的相关课程,引导用户点击得到想要的结果。

八、用户分群模型

分群是对某一特征用户的划分和归组,而分层,更多的是对全量用户的一个管理手段,细分用户的方法其实我们一直在用,比如我们熟悉的RFM模型:

1. RFM模型是从用户的业务数据中提取了三个特征维度:

1)最近一次消费时间(Recency)

2)消费频率 (Frequency)

3)消费金额 (Monetary)

通过这三个维度将用户有效地细分为8个具有不同用户价值及应对策略的群体,如下图所示:

2. 另外四个用户分群的维度

1)用户属性:用户客观的属性,描述用户真实人口属性的标签,比如:年龄、性别、城市、浏览器版本、系统版本、操作版本、渠道来源等就是用户属性

2)活跃时间

3)做过,没做过

4)新增于:何时新增用户较多

 

作者:李启方

来源:数据分析不是个事儿

]]>
数据化运营体系建设的行动指南 //m.clubpenjuin.com/196370.html Thu, 28 May 2020 07:04:19 +0000 //m.clubpenjuin.com/?p=196370

 

数据化运营体系建设是一项系统性的价值工程,关乎企业的生存与发展。如何搭建一个数据化运营体系?本文介绍了数据互运营体系的概念、价值与定位、方法论、路径选择与行动指南,教你开启企业的数智化转型的新旅程。

之前围绕数据化运营的话题,较为详细的介绍了如何用数据驱动产品、用户、内容、活动和服务的运营,有理论梳理和案例描述,内容相对较全面。

但是,对于企业来说,如何开启数据化运营的旅程呢?就如同去旅游一样,哪些地方去,哪些地方可以不去,先去哪一站,这些需要提前做个行程规划。

所以,对于企业来说,如何搭建符合自身情况的数据化运营体系,需要一份导航图或者说是行动指南。今天,我们讨论的话题就是:搭建数据化运营体系,企业需要怎样的一份行动路线导航图。

与之前类似,我还是从基本概念入手。先阐释一下我所理解的数据化运营体系,然后分析为什么需要数据化运营体系,再给出搭建数据化运营体系的方法论框架和行动指南。

个人认为,数据化运营体系是指:用数据的手段和方法,结构化、系统性地解决业务运营场景中的各种问题的一套思维模式、技术路线与动作模式等.

它包括:数据体系、运营体系、方法体系和组织体系四个方面。

个人理解数据化运营体系之所以由数据、运营、方法和组织四个部分组成,是由它们各自的职责定位决定的。

数据体系解决的是数据基础的问题。运营体系指导我们该做哪些事情,方法体系提供给我们做这些事情所需要的技术与方法,而组织体系则告诉我们完成这些事情时该如何去配备相应的专业人员。

数据、运营、方法和组织四位一体,自成体系,构成了支撑企业数智化转型的数据化运营体系。

数据化运营体系对于企业来说,其定位可以概括为:企业运营的指挥系统、智慧运营的中坚力量。

作为企业运营的指挥系统,数据化运营体系能全面操盘数据在产品优化、用户增长等方面的应用。运筹帷幄、决胜千里,指导企业在产品、内容等方面的优化和提升。

作为智慧运营的中坚力量,数据化运营体系能从人力资源、技术平台等方面保障应用的落地,是推进运营智能化升级的核心力量。

数据化运营体系是企业数智化转型的集中体现,它在企业转型过程中的价值体现在四个方面:

数据化运营体系将数据融入到产品、用户、活动等方向的场景中,以数据的钥匙解决了这些场景中的存在问题,这些问题实际上就形成了释放数据价值的通道。

数据化运营体系彻底改变了企业的运营决策模式,使企业不再依靠拍脑袋、凭经验或头脑风暴的方式来制定运营决策;而是通过数据测算、验证和分析的方式来解剖问题、输出决策。这样的决策是科学可靠的,经得起实践考验的。

在数据技术加持下,可以缩短企业的决策流程,让企业能够准确的对市场形势做出预判,从而迅速调整营销策略。

透过数据可以帮助企业把握商机,更灵活、快捷的对用户的需求做出响应,让企业在激烈的市场竞争中赢得先发优势。

数据在用户运营、产品运营等领域的应用是数据化运营体系的重头戏,在数据的催化作用下,产品运营、用户运营等将变的更加“聪明”。

数据驱动运营,其实就是数据为运营装上智慧的大脑,有了更高的智商后,企业的运营将更加智慧。

关于数据化运营体系建设,笔者总结为“四维修炼法”,即从数据、运营、方法和组织四个维度入手,逐步完善数据化运营体系的能力版图。

以建设数据中台为目标,完成数据的“采、存、通、管、用”,是数据化运营体系的技术底座。

数据中台建设本身是一项复杂的系统性工程,不过还是可以按照做产品的思维和套路来建设数据中台。

如下图,可采取“五步法”进行数据中台的研发:

当然,并非所有的企业都适合建立数据中台,数据中台是企业数智化转型的技术底座,但还是建议短期内不适宜建数据中台的企业可以考虑搭建DMP(数据管理平台)。

之所以将数据中台单列出来描述,是以业务条线较多的行业头部公司为典型案例,以方便全面的介绍自己的数据化运营体系。

后续运营体系、方法体系、组织体系也是以企业“需要建设数据中台”的前提假设为基础来阐释的。

以数据为驱动力,以业务需求为牵引力,结合产品运营、用户运营等五大类运营场景下的问题,梳理出具体的工作任务;测算各项任务的工作量;制定详细的时间计划和行动方案,绘制出任务地图。

针对任务进展情况设计监测指标,并以任务看板来监督相关事项的状态和落实进度,设置预警规则,以便及时调整任务开发策略。

在任务地图的基础上,进一步细化出每个事项需要的理论基础和技术方法,并逐步完善运营规范,形成最佳运营实践,沉淀到业务知识库中。

根据企业实际人员配置情况,结合数据化运营体系的要求,搭建合适的组织结构。

人员体系一般包括三大块,即面向运营方向的数据产品与应用团队,面向企业数据中台建设的团队,再就是平台技术支撑团队。

其中数据产品与应用团队需要在用户运营、产品运营、内容运营等领域与相应的运营工作人员建立联合工作机制。

企业在搭建数据化运营体系时,建议遵循三个原则:

  1. 因地制宜:结合企业自身情况,量身定制适宜的策略,输出符合现状的数据化运营体系建设方案,不可贪大求多,要量力而行;
  2. 内外结合:诊断问题或确定短板时,从内部(前台+后台)和外部(用户+对标)着眼,多角度综合研判,确定关键问题;
  3. 价值导向:从最终的业务价值出发,反向考虑数据化运营体系的建设路径,制定具体行动方案时,价值大的任务拥有更高优先级。

从数据基础能力和运营问题紧迫性两个维度出发,建立二维分析矩阵,将企业分为四个类型,散落在相应的四个象限中。

企业可根据自身所在的象限位置,制定更为具体可行的行动计划。

1)第一类企业:数据基础强,运营问题不紧迫

以先进企业为对标,分析在数据中台和运营领域上与对标企业之间的差距。找出最突出数据方向TOP10和运营方向的TOP10问题,评估改进的优先级,制定提升策略与方案,纲举目张,有序推进。

2)第二类企业:数据基础弱,运营问题不紧迫

优先补齐数据能力方面的短板,重点推进数据方向的TOP10问题的解决。在解决数据问题的过程中适当结合运营工作要着力提升的关键点,以数据能力提升为主,运营优化为辅。

3)第三类企业:数据基础弱,运营问题很紧迫

优先解决运营工作中的TOP10问题,适当补齐数据能力的短板。以运营优化为主,数据能力提升为辅。

4)第四类企业:数据基础强,运营问题很紧迫

梳理运营工作中的TOP10问题,梳理数据基础能力的TOP5问题。找到运营场景下二者的结合点,从结合点切入,让数据在应用中释放价值。

至此,从数据价值观到数据驱动的产品、用户、内容、活动、服务五个方向的运营,笔者写了一系列文章,较为系统的阐述了数据化运营体系建设的理论与实务。

总之,数据化运营体系建设是一项系统性的价值工程,关乎企业的生存与发展。

企业应当与时俱进、顺势而为,以数据为帆,以“四维修炼法”为船,以数据化运营体系建设的行动指南为导航。开启企业的数智化转型的新旅程,找到数据武器解决企业发展问题的新路径、新模式。

 

作者:黄小刚

来源:大数据产品设计与运营

]]>
数据运营:如何对APP进行数据分析? //m.clubpenjuin.com/181479.html Wed, 19 Feb 2020 08:22:11 +0000 //m.clubpenjuin.com/?p=181479

 

有一个朋友跟我说,他之前呆过的一家互联网公司,抗风险能力很弱,整个运营部门all in 在新增上,完全不考虑留存和活跃等指标。

2017年的日新增用户数单从应用市场靠ASO来的都能做到日均3W,还没有算上其他渠道。但是留存特别低,7日活跃留存率只能维持在10%左右。

后来,公司新来了一个产品经理,这个产品经理看到公司的问题,他逐步完善整个公司的数据体系。后来,运营数据指标体系慢慢清晰了,公司的用户增长也步入健康的增长状态,比当时all in新增的利润要可持续得多。

他感叹说,数据分析好的话,完全能够实现可持续性的利润增长,深感数据分析的重要性。

我也是完全认同他的观点,数据分析的价值潜力很大。

今天,结合我多年的APP数据分析经验,给大家讲解一些APP数据分析的思路。记住,只聊思路,不聊实操,希望对一些对APP数据分析感兴趣的伙伴有所帮助。

日常数据运营指标的监控

日常数据运营指标,如下载用户数、新增用户数、活跃用户数、付费用户数等,这些数据都是运营中最基础最基本的数据,是大Boss们最关注的核心指标。

这些指标对数据的准确性和及时性要求都比较高,所以你一旦进入一个新公司,或者接手一个新项目,第一任务就是要把这些数据梳理好。

另外,运营指标体系中的众多指标是基于这些基础指标衍生出来的,假如这些基础指标的数据质量不过关,其他衍生指标也会出现偏差,而且偏差结果因多个基础指标误差的叠加导致比基础指标更大。

如何保证基础指标的数据质量?

用户ID逻辑的设计很关键。对于用户数的统计,用户ID的设计逻辑好与坏直接决定数据的质量。

因此,当你获取到这些基础数据时,你要对背后统计的ID逻辑了解清楚。对于电商和社交类的APP,因为这种类型的APP有强大的会员系统,对于精准识别一个用户来说它会起到很好的补充作用。

渠道分析

对于一个上升期或者衰退期的APP,运营团队会尽可能寻找大量的渠道来引流,吸引新用户的关注。

互联网的渠道很多,通常有竞价渠道(百度、搜狗、应用商店)、SEO渠道(百度、搜狗)、新媒体渠道(微信公众号、微博、抖音)、网盟广告渠道(百度网盟、阿里妈妈)、移动端付费渠道(今日头条、腾讯广点通)、免费渠道(QQ群、微信群、贴吧、问答平台、应用商店)、直播平台(虎牙直播、映客)等。

渠道之多,因此做好渠道效果的监控和分析,对于降低获客成本,提高渠道推广的ROI,十分有帮助。

渠道分析,无非就是监测各个渠道的好坏、哪个效果更好、哪个单价更便宜。当然,我们还需要监控每个不同渠道用户的后续表现,给每个渠道的用户打分,我们要清楚的让BOSS知道哪些渠道值得投、哪些渠道是垃圾;哪些渠道需要加大投资力度,哪些渠道应该选择放弃。

假如运营团队资源充足,还可以对不同手机机型、不同操作系统、不同地区之间的用户质量进行对比分析。总之,就是在不同的维度上对新用户进行切片,来监测不同维度上的用户表现。

当然,渠道分析中,还有两个重要问题是需要市场人员和数据分析人员引起迫切关注的,那就是渠道作弊和渠道归因。关于渠道作弊和渠道归因,都是很复杂的研究课题,后期我会单独针对这两块内容来写点东西,这里就不展开详细叙述。

活跃用户分析

一个产品不可能满足所有用户,鱼和熊掌不可兼得,用户之所以成为了活跃用户,必然是你的产品已经满足了一定的用户需求。研究好活跃用户有助于我们提升最核心的功能点,因此,这部分人的行为更值得研究

所以说,活跃用户(或者核心用户)是APP最宝贵的资源,我们要密切关注APP活跃用户的动态、倾听他们的声音。

活跃用户分析,我们可以关注DAU,WAU、MAU、启动次数、使用时长、DAU/WAU、DAU/MAU等指标,WAU和MAU反映了活跃用户的总规模,启动次数和使用时长反映了活跃用户的粘性,DAU/WAU和DAU/MAU反映了活跃用户的活性。

活跃用户分析中,反映粘性和活性的指标,都值得细致研究。比如:拿使用时长指标来说,这个指标是用户在某个自然时间段内在APP上使用的时间,这个指标的最大功用就是用来评价用户活跃度和用户粘性的。

如果用户使用时长非常理想,说明用户对APP的认可程度和刚需性高,反之则亦然。

另一方面,想一想你的APP在设计的时候,当初预计一个正常的用户每天会用多少时间,上线后用户真正用的时间是否和你的预计相同?

如果这里面有很大的偏差,就说明用户对APP的认知和你当时设想是有不同的。 这个时候你就需要想想如何来调整你的产品,去迎合用户的认知。

用户画像分析

用户画像其实就是用户信息的标签化。如性别、年龄、手机型号、网络型号、职业收入、兴趣偏好等等。用户画像分析的核心工作就是给用户打标签,通过人制定的标签规则,给用户打上标签,使得能够通过标签快速读出其中的信息,最终做标签的提取和聚合,形成用户画像。

用户画像的应用场景主要有两个:用户特征分析和用户分群。

用户特征分析,是对特定的用户群体进行持续深入的用户属性洞察,使得该用户群体的画像变得逐渐清晰,帮助企业了解他们是谁?行为特点是什么?偏好是什么?潜在需求和行为喜好是什么?洞察了这些特征以后,为后续的用户群体可以做针对性的分析。

用户分群是精细化运营的基础,已经广泛应用于各行各业的数据分析过程中。比如,定位营销目标群体,帮助企业实现精准营销;为唤醒沉睡用户或者召回流失用户,帮助企业实现精准推送;比如电商或者资讯类的APP,帮助企业实现个性化内容推荐等等。

产品核心功能转化分析

什么是转化?

当用户向您业务价值点方向进行了一次操作,就产生了一次转化。这里的业务价值点包括但不限于完成注册、下载、购买等行为。在互联网产品和运营的分析领域中,转化分析是最为核心和关键的场景。

以电商网站购物为例,一次成功的购买行为依次涉及搜索、浏览、加入购物车、修改订单、结算、支付等多个环节,任何一个环节的问题都可能导致用户最终购买行为的失败。在精细化运营的背景下,如何做好转化分析俨然很重要。

所以,当你想要做转化分析的时候,你就想想你产品的核心功能是什么,然后去监测这个核心功能的转化率。不同行业都有相应的不同转化率,比如游戏APP里更加关注付费率,电商APP更加关注购买率。

转化率分析,你也可以将自己的产品与行业平均水平对比,看看自己的产品在行业所处的位置。另外,也可以通过长期的趋势监测,可以评估APP不同版本的好与坏。

用户流失分析

流失用户召回是运营工作中的重要部分,定义流失用户是用户流失分析的起点。流失用户,通常是指那些曾经使用过产品或者服务,但后来由于某种原因不再使用产品或服务的用户。

在实际工作中,不同产品或者服务的业务类型,流失用户的定义要复杂的多。

  • 比如电商类产品,根据用户购买行为定义,用户多久未再次购买算流失用户;
  • 比如内容类产品,根据用户访问行为定义,用户多久未访问算流失用户;
  • 比如视频类产品,根据用户观看行为定义,用户多久未观看算流失用户。

因此,需要结合产品业务类型,将用户关键性行为进行量化,来定义流失用户。

用户流失是一个过程不是一个节点,流失用户在正式停止使用产品之前会表现出一些异常行为特征:访问频次大幅降低,在线时长大幅下降,交互频率大幅降低等。

因此,我们需要通过规则或者机器学习建模等方式,建立用户流失预警机制,提前预测流失用户的概率,支持运营对高潜在流失用户进行活动干预。

如果有条件的话,可以和行业的平均水平进行对比,让自己更加清楚自己产品的流失率在行业的位置。另外,也可以给流失用户做画像,能够帮助我们更好的了解流失用户特征。流失用户画像越细致,代表性越强,召回成功率就越高。

但是,我们知道流失用户和流失用户的画像还不够,还要找到流失的地方,看看用户在哪些地方流失了,然后有的放矢,进行相应的产品改动。

当我们清楚的定义了流失用户,也了解了流失用户的画像,知道流失用户聚集在哪些渠道,接下来我们就要明确用户召回的路径和策略。

从用户角度出发,给用户一个重新使用产品的理由。流失用户召回后,不是终点,我们要对召回来的流失用户进行维护和二次促活,巩固召回效果。

用户生命周期分析

什么是APP用户的生命周期?

它是指用户从与APP建立关系开始到与APP彻底脱离关系的整个发展过程,在整个生命周期中为APP带来的价值总和,称为生命周期价值。

在APP用户的整个生命周期中,从用户价值贡献的角度可以分为4个不同的时期,分别是考察期、形成期、稳定期和衰退期。每个时期的用户给APP带来不同的价值。

(1)考察期

这个时候的用户主要是对APP产品提供的功能和服务,进行自我需求的验证和考察。一旦用户发现产品不能满足自己的需求,将会快速的流失掉。

所以在产品规划的时候,一定要对目标群和目标用户需求进行精准定位,尽可能避免上线后,就有大量的用户流失。这个时期用户的价值贡献较低。

(2)形成期

当产品的功能和服务能够满足用户的需求,用户将会对产品进行试探性使用,在该过程中产品的用户体验将会起到决定性的作用。尤其是在同质APP较严重的时候,用户将会一边倒的选择体验更优秀的APP。

在该时期用户会真正的选择并决定使用产品,同时用户创造的价值也将会飞速提升。

(3)稳定期

处于这个时期的用户,无论是忠诚度还是活跃度都是最高的。他们会频繁的使用产品,会对产品进行口碑宣传,吸引和推荐更多的用户选择产品,这个时期的用户价值创造将会达到最高,并且保持很长一段时间的稳定。

(4)退化期

引起稳定用户进入退化阶段,因素很多。比如一个母婴类产品,孩子长大了,就放弃该产品的使用。

总之,某些因素影响到用户的满意度,都有可能促使用户进入退化期,进而彻底脱离该产品。用户一旦进入退化期,就应该进行及时的用户维护。这个阶段,用户创造的价值将会迅速递减。

总结

以上总结的APP数据分析思路并不是全部,比如A/B测试、热图分析、表单分析、路径分析等常用的分析思路,均没有包含其中。这么多APP数据分析思路,其实市场上已经有非常成熟的APP数据分析工具,给我们提供强大的分析支持。

比如国内的有友盟、MTA、Talkingdata、神策数据、Growingio、诸葛IO、数极客等,国外的有GA、Mixpannel、Appsee等。每一款APP数据分析工具,除了基本的数据分析维度几乎都一样,各家的产品都有自己独特优势的功能。

所以,大家如果希望选择第三方数据分析工具,要结合自己的分析目的和自身公司的条件来选择适合自己的数据分析工具。

 

作者:大雄

来源:大熊

]]>
数据运营:分布分析法&用户留存分析法 //m.clubpenjuin.com/179283.html Tue, 04 Feb 2020 06:13:39 +0000 //m.clubpenjuin.com/?p=179283

(1)按事件的频率

举个栗子:某职业技能提升平台(下图)的某公开课程的页面,我们不止可以看PV,还可以把PV以用户浏览的次数进行查看,可以看看有多少人是看了1~3次的,有多少人看了3~5次的。

分布分析方法不同的是:平时我们只看此页面一共浏览了多少次,这样再去平均。在这里我们看到的只是一个平均数,可能很多用户一天就能看几十次,也有部分用户只看了一次,如果我们单独去看整个页面的浏览次数,是得不到用户真实的使用情况的。如果用分布分析去看用户的浏览次数,那么,我们就对这个页面的浏览次数有了一个清晰的认知。

(2)按一天内的时间分布

还以上面的某职业技能提升为例:上面说到查看次数,但是这个是课程的页面,我们不只要看查看次数,还要查看观看课程的时长,比如同样是看一次,有的用户看1小时,有的用户看3小时,这显然是不一样的。

(3)按消费金额的区间

最后呢,我们还可以按消费金额的区间进行划分,我们是一个职业技能提升平台网站,肯定有不同的用户购买不同的课程。

这里我们不仅可以从订单的笔数进行查看,还可以按消费金额划分区间,这样就可以知道我们这个平台消费0~500元的有多少用户,500~1000元的有多少用户,1000~2500元的用户有多少。

以上是分布分析法的三种主要分析方式,它的运作原理是:从事件在不同维度中的分布来观察,以便理解该事件除了累计数量和频次外,其他维度的信息。

场景一

已经知道一群用户完成了指定事件,但需要对用户群体进行细分,按不同的维度(比如依赖程度)和价值(付款金额)将他们划为不同群体,分别进行后续的维护或分析。

比如说:把特别依赖的用户单独筛选出来,建一个用户运营的专项项目,去运营用户。也可以把那些付款金额大的用户,去做一些运营活动。

场景二

已经知道单个事件的完成次数,希望知道这些次数拆分到不同维度上后的分布情况,以便更清晰地了解该事件的完成情况。

比如:把不同的内容的查看次数放在一些对比,可能没有区别,但如果把几种内容的查看次数按照时间进行分布,可以看到更多详情的信息,比如某内容用户的查看时间段,A内容上午查看的用户多,B内容下午查看的用户多。

由此,我们可以发现,不同的内容在时间的分布上是有些特性的。这时候,在推荐内容上就可以根据不同的时间段推荐不同类型内容给用户。

短期来看:了解某一渠道的质量,一般看的是日留存

以天为单位,衡量这个渠道来的用户当下&接下来的表现。这里需要注意的是:以【 X日日留存】作为比较标准时,应避免其他日数据的干扰。长期来看:观察整个大盘,通常看的是周留存/月留存以周/月为单位,衡量产品的健康情况,观察用户在平台上的黏性是怎样的。记得务必要去重。

下面这款产品就是在一年的周期内,从1月份到12月份的新增用户,在后面几个月内留存的表现情况。

由下图可以看出,在产品不断的优化及迭代的过程中,每个月的留存是有所增长的,这证明此款产品的迭代和运营的方向是抓的比较准的。

思考一下:为什么在验证产品长期价值时选择月留存,而不是日留存呢?

这是因为留存这个数据本身波动都不太大,如果看日留存会有很多的数据需要处理,数据量大往往我们就不能把焦点放在该放的地方。而恰恰也刚好是我们一般迭代一个版本是半个月或者一个月,往往能从根本上影响留存的。

所以,从一个月来观察产品的留存变动,更能了解产品长期价值的变动。这种是最常见的留存计算方式。

(1)常见的计算方式

大盘留存的计算方式:将某一时间的用户ID与另一时间的用户ID做交叉去重。

但是,大盘的留存会受很多因素的影响。举个简单的栗子:你的产品做了一个活动,引入了低质量的渠道(这是经常有的事儿哈),那么这个留存不管是次日/次周/次月都会大跌的。

还有一种可能是你搞这个活动的时候,这批低质量渠道过来的用户暴增,导致服务器宕机等等。所以,不管是产品还是运营,抑或是技术、市场每一个环节都会对留存造成影响。

(2)精准留存

精准留存有两种计算方法:第一,过滤进行过指定行为的用户ID,单独进行计算。

举个栗子:某在线阅读类产品,以下是大盘的留存,在这里呢我们要区分出来看了某一种类型的书籍的用户,有没有可能比其他的用户更有可能留下来。

这时需要把看过某一类型的书籍(比如励志类的)单独的筛选出来,只看这一批用户的留存情况。经过查看得知,此类型书籍的用户的留存比大盘高,那是不是表明还有其他类型的书籍比大盘要低啊。

所以,通过这样的观察,我们就可以得知各个类型的书籍吸引用户的能力是不一样的,然后去评判不同的书籍类型的运营质量,以及用户黏性的价值。

第二,根据用户不同的属性,划分为不同的群体,观察它们之间留存的区别

举个栗子:我们是王者农药的产品经理,如果通过大盘来观看数据,是看不出所以然的。这个时候我们可以给用户划分为不同的用户群体,在这里我们把用户进行分区划分,通过分区我们可以发现,有的区它的周留存是优于其他区的,那我们就可以研究这个区为什么做的好,然后把这个区做的好的点复制到其他区域。

最后一张架构图总结一下:

好啦,以上就是关于分布分析法和用户留存分析法的分享,希望能给大家提供一些思路和灵感,欢迎交流。

 

作者:菜菜

公众号:菜菜唠产品(caicailaochanpin)

 

]]>