公众号描述
我想关注我公众号(行思知识工坊)的人,很多是对数据分析感兴趣的人,其中很多人都会写数据分析报告,那么如何写一份好的数据分析报告呢?
我个人认为要做到:切中要害,有理有据,贴合实际,可操作性。切中要害就是选题要准,有理有据就是要言之有物,言之有理,贴合实际、可操作性是要解决问题。下面我会一一道来:
一、选题
选题是所有文章的最关键的部分,明确的选题才会引起读者的兴趣,选题成功的与否决定了文章最后的质量、对于数据分析报告而言,选题要注意以下几点:
一是要有确定范围。数据分析报告和学术论文一样,都需要有确定的范围,过大的范围会无从下手,写起来漫无边际,过小的范围则会发现言之无物,例如如何提升企业经营效益就是一个过大的题目,无从下手,而通过提高存货周转率和运输损耗提高企业效益就是一个大小适中的题目,很多问题的产生是多方面原因共同作用的结果,选择一到两个入手是比较好的方法,后续可以进一步扩展,形成系列分析报告(刷KPI)
二是目标要明确。数据分析报告不是散文,是要去解决问题的,所有整个文章的撰写,都要围绕着如何解决问题而去的,你分析的问题必定要有对应的解决方法,即便没有十分有把握的对策,也要提出一些可供参考的建议,最好对各个方案的利弊有简要分析,领导最讨厌的不是制造问题的人,是发现问题却不告诉他如何解决问题的人。
三是要做好前期研究准备。就目前的环境而言,除非你所在的公司是行业领头羊,其实大部分问题在其他企业都遇到过,所有进行前期研究是非常有用的,它山之石可以攻玉,闷头写常常会发现已经有了更好的办法,徒费工夫。
二、数据来源和清理过程
数据分析的基础就是数据,而数据来源和清理过程,决定了分析的结果是否可信。
第一,一定要选择可靠的数据来源。一手数据永远是最好的选择,网络数据最不可信,学术论文和国家统计数据相对可信,做出书分析要有严谨的态度,很多所谓的报告中的数据是润色过的,观点并不客观。
第二,数据清理过程要科学。参考统计学或权威论文的数据处理过程是较为简单的方法,不合理的清理过程常常令人忽视隐藏的信息,例如采样数据小于100的情况下使用拉依达准则(3σ准则)方法去除异常点是错误的,应该使用拉伊达准则,否则就会发现异常点非常之多。
第三,清理过程应该是可复现的。即按照记录再次对源数据进行清理,得到的结果是一致的,这要求每一步都要正确的,这也是很多人用来验证你结论的第一步,要是连数据清理过程都无法复现,没几个人会相信你的分析结论。这也是网上很多文章要持怀疑态度原因,不提供源数据,数据清理过程语焉不详,这样的文章只能是持怀疑态度去阅读,不能作为可信的文献资料。
三、报告的逻辑
逻辑性是数据分析报告的灵魂。利用数据发现问题,深入分析数据产生的原因,针对性的提出建议是最基本的逻辑过程,即what、why、how,是什么、为什么、怎么办。
是什么,问题不是空想的,是事实存在的,数据分析只不过是发现问题。为什么,产生问题的数据是如何产生,是哪一步的行为导致了该数据的产生。怎么办,如何通过行为的改进,解决存在的问题,数据的变化仅是行为变化的反应,单纯改变数据不能解决问题。
四、观点的提出和验证过程
观点的提出和验证过程证明了分析的可信性。之前彭博社公布的全球抗议排名就是一个反面的案列。彭博社自称,在新冠疫苗开始全面普及的现在,衡量全球抗疫排名的标准应该被重新定义,即所谓的正常化。
由此,彭博社引入了重新开放进度作为主要的衡量指标,其中包括疫苗覆盖率、封锁严重度、航班飞行能力和疫苗接种者可旅行路线四个二级指标。而原有的新冠肺炎疫情数据和居民生活质量反而退居其后。
如果一个数据分析报告一开始观点的提出和后续的验证过程就不客观、不科学,具有明细的主观性和倾向性。那么这份数据分析报告只可能是个笑话。
五、具有操作性的建议
数据分析报告最重要的就是提出具有操作性的建议,而这需要通过小范围的验证来证明。试点,这个词大家应该常常听说,通过在某些特定位置使用新的措施,评估措施的有效性。数据分析报告提出的建议应该是经过初步验证的,也就是试点过的,这一过程可以发现措施潜在的不足和问题以便进行改进,这样的建议才有足够的说服力让领导采纳。
码字不易,只求大家点赞+关注
第一次接受赞赏,亲,看着给啊
便民信息
更多推荐阅读