行业务上对某家银行不满意,很难想象这个人在以后的对公业务上会与这家银行建立愉快的合作。毕竟,如今的银行业早就不是垄断行业了!本次研究框架根据银行满意度测评结构方程模型,对34个满意度驱动要素―知名度、银行实力、银行信誉、产品/服务创新、网点数量、网点位置分布、外部标识、内部环境、服务窗口数量、服务种类标示、服务设施配备、宣传资料、营业时间、办理业务种类、人员服务态度、手续简便、等候时间、办理效率、热线电话接通率、语音提示、自动声讯效率、人工热线接通情况、服务态度、业务水平、网上银行安全性、开通方便、操作方便、资料记录准确及时、网页速度、ATM机数量、可靠性、处理速度、取款金额次数限制、ATM机安全性等进行测算,给出分值及其对满意度的影响大小,并根据分析结果提出了满意度改进建议。
(2)主要结论
调查发现,从该市居民经常办理个人业务的银行和客户心目中最好的银行的提及率分布来看,银行1均高居榜首,但是银行1作为最好银行的提及率仅有主办理银行提及率的一半;而银行2和银行6作为最好银行的提及率远远高于其作为主办理银行的提及率。另外银行1作为主办理银行的提及率与去年调查结果相比下降了近十个百分点,而选择其它商业银行,如银行6、银行7、银行2办理业务的比例明显有所上升。
客户在银行办理的业务类型中,人民币存取款、缴费、领工资、使用银行卡等业务的比重有所下降,而办理住房贷款、消费贷款、外币存取款的比重有所上升,说明银行提供的新业务内容正逐步得到消费者的认可。
各主要银行的客户群体呈现出鲜明的人口特征。如银行1更受40岁以上的中老年人群的青睐;主要集中在工人、教师和离退休人员;主要为高中/中专学历的群体;个人月收入主要集中在1-3千元等等;银行6的用户满意度和忠诚度明显高于其它银行,银行1的用户忠诚度最低。
银行1在服务厅、网络方面占有一定的优势,但是在服务软件、服务硬件方面均远远落后于其它银行; 银行6虽然继续在银行形象、服务软件、服务硬件方面处于领先,但是与去年调查结果相比有了一定的退步.
7.CRISP-DM简介
在1996年,当时数据挖掘市场是年轻而不成熟的,但是这个市场显示了爆炸式的增长。三个在这方面经验丰富的公司DaimlerChrysler、SPSS、NCR发起建立一个社团,目的是建立数据挖掘方法和过程的标准。在获得了EC(European Commission)的资助后,他们开始实现他们的目标。为了征集业界广泛的意见共享知识,他们创建了CRISP-DM专家组(SIG,Special Interest Group)。
1999年,CRISP-DM SIG(Special Interest Group)组织开发并提炼出CRISP-DM(CRoss-Industry Standard Process for Data Mining,跨行业数据挖掘标准流程),同时在Mercedes-Benz和OHRA(保险领域)企业进行了大规模数据挖掘项目的实际试用。SIG还将CRISP-DM和商业数据挖掘工具集成起来。SIG组织目前在伦敦、纽约、布鲁塞尔已经发展到200多个成员。当前CRISP-DM提供了一个数据挖掘生命周期的全面评述。它包括项目的相应周期,各个阶段的任务和这些任务之间的关系。所有数据挖掘任务之间关系的存在是依赖用户的目的、背景和兴趣,最重要的还有数据。SIG 组织已经发布了CRISP-DM 1.0的电子版,这个可以免费使用。
数据挖掘项目的生命周期由六个阶段组成。如图展示了这一数据挖掘过程的各个阶段,这些阶段之间的顺序并不固定,在不同阶段之间来回循环往往是非常有必要的。究竟下一步要执行哪个阶段或者哪一个特定的任务,都取决于每一个阶段的结果。图中的箭头表明了各阶段之间最重要和最频繁的依赖关系。图中最外层的这个循环表明了数据挖掘本身的循环性质。经过一个具体的数据挖掘项目得到了某项解决措施或办法并加以展开,并不代表数据挖掘本身已经结束。从这一数据挖掘过程以及解决措施展开的过程中所吸取的经验、教训,又引发了新的、通常是更加有挑战的商业问题。接下来的数据挖掘过程将会从过去的项目经验中获利。在接下来的内容中,我们将简要的勾勒一下每个阶段的轮廓:
36
图7.1:CRISP-DM数据挖掘标准流程
数据理解
数据理解阶段开始于数据的收集工作。接下来就是熟悉数据的工作,具体如:检测数据的质量,对数据有初步的理解,探测数据中比较有趣的数据子集,进而形成对潜在信息的假设。
数据准备
数据准备阶段涵盖了从原始粗糙数据中构建最终数据集(将作为建模工具的分析对象)的全部工作。数据准备工作有可能被实施多次,而且其实施顺序并不是预先规定好的。这一阶段的任务主要包括:制表、记录、数据变量的选择和转换,以及为适应建模工具而进行的数据清理等等。
建立模型
在这一阶段,各种各样的建模方法将被加以选择和使用,其参数将被校准为最为理想的值。比较典型的是,对于同一个数据挖掘的问题类型,可以有多种方法选择使用。一些建模方法对数据的形式有具体的要求,因此,在这一阶段,重新回到数据准备阶段执行某些任务有时是非常必要的。
模型评估
从数据分析的角度考虑,在这一阶段中,您已经建立了一个或多个高质量的模型。但在进行最终的模型部署之前,更加彻底的评估模型,回顾在构建模型过程中所执行的每一个步骤,是非常重要的,这样可以确保这些模型达到企业的目标。一个关键的评价指标就是看,是否仍然有一些重要的企业问题还没有被充分地加以注意和考虑。在这一阶段结束之时,有关数据挖掘结果的使用应达成一致的决定。
部署(发布)
37
模型的创建并不是项目的最终目的。尽管建模是为了增加更多有关于数据的信息,但这些信息仍然需要以一种客户能够使用的方式被组织和呈现。这经常涉及到一个组织在处理某些决策过程中,如在进行网页实时更新或者营销数据库的重复打分时,拥用一个能够即时更新的模型。然而,根据需求的不同,部署阶段可以是仅仅像写一份报告那样简单,也可以像在企业中进行可重复的数据挖掘程序那样复杂。在许多案例中,往往是客户而不是数据分析师来执行部署阶段。然而,尽管数据分析师不需要处理部署阶段的工作,对于客户而言,预先了解需要执行的活动从而正确的使用已构建的模型是非常重要的。
8.数据挖掘经验谈
采用CRISP-DM方法论
采用CRISP-DM方法论作为数据挖掘的指导能帮助确保获得成功的商业结果。在现实中对于一个数据挖掘项目来说,最初设定的商业目标很容易淹没在复杂数据挖掘技术和海量数据中,所以以一个已经被验证方法论为指导是很关键的。
以终为始
为了能在项目终结时得到期望的ROI(Return On Investment,投资回报率),你应该在项目启动前已经确定了如何评估最终的结果的标准(例如:使用什么样的商业考核指标,它们是被如何计算或派生的)。例如你是不是想在20%的客户中找寻潜在流失者?基于客户保留计划的消费和营销反应程度,你如何将这些信息转换成商业收入增长期望值?或者你知不知道如果确定出额外的十条欺诈信息能节约多少开支?
设定期望值
确保项目投资者明白数据挖掘不是解决商业问题的魔术棒。数据挖掘是借助计算机技术辅助解决商业问题的一种方法。就像任何商业问题,投资者需要首先提出可解决的问题,然后找寻方案。例如你计划为公司市场部做客户细分,那么应该与市场部的同事一起明确什么样的结果是最终希望得到的(例如:“我们使用产品信息和人口统计数据,所以希望得到基于客户的收入、年龄等信息的细分,这样能显示不同层次客户对产品的喜好”)。
限定最初的项目范围
以现实可行的目标和日程表为开始,当你获得成功后,再转向更复杂的项目。例如与其试图立刻提高新客户的获取值,还不是集中精力在小的更实际的目标如对某一区域进行交叉销售,客户保留项目。
确保团队合作
数据挖掘项目是一个团队工作。数据挖掘需要商业使用者理解实际问题和数据,也需要数据分析家提供分析解决方案,以及数据库管理者提供权限。例如,你可能在项目中需要数据挖掘专家、数据库专家和市场经理。因为他们来自不同的部门,可能在数据挖掘项目合作中会出现问题,所以找到可行的合作方式是很重要的。
38
避免陷入数据垃圾
在项目进行中,始终明确需要解决的商业问题,确保项目结果的最终完成。如果你只是在没有项目计划的情况下简单的开始分析一堆数据,你将会很容易迷失在数据里而且浪费时间。不要让项目被大量数据单纯驱动,集中精力在商业目标上。你可能不需要使用系统中的所有数据,仅仅使用和项目相关的数据就可以了。你甚至可能会发现现有的数据不能足以解决现实的商业问题。即使海量数据也不能保证你就拥有准确的用于建模的数据.例如,使用最新的信息进行预测客户行为往往比用大量的历史数据准确。
9. 数据挖掘部署策略
数据挖掘的结果发布可以很简单,例如只是生成一个规则集,对具体某个商业问题给出一个参考建议;也可能很复杂,如需要实时嵌入到客户的决策支持系统,为决策者提供前瞻性决定提供依据。以下阐述四种优化策略帮助部署高级分析结果,以及为获得最大投资回报设定的预测分析解决方案。这些策略是通过概括现实中使用Clementine数据挖掘平台的众多部署案例得到的,具有普遍应用性。
? 快速更新批处理方式:使用快速高效的批处理功能部署数据挖掘,为数据简单快速的打分 ? ? 海量数据批处理方式:策略性应用代码部署,注意代码开销平衡,集中在为海量数据高速打分 ?
? 实时封装方式:将数据挖掘部署封装应用并将集成风险最小化,应用在用户定制的高速、实时为数据打分上 ?
? 实时定制方式:将数据挖掘部署到为客户量身定做的应用产品上,在企业组织结构下实现不同功能的实时打分或者不能以实时封装方式部署的特
殊商业目标
策略 1-快速更新批处理方式
快速更新批处理打分是应用最广泛的方式之一,适应于不需要实时响应的系统。例如,许多公司使用这种方式对客户数据库保持更新,通过客户关系管理应用为决策者提供最新预测分析。这种方式以及相关部署应用为与各式操作系统环境提供灵活集成。
Clementine Batch 和Clementine Solution Publisher帮助你高效部署数据挖掘结果和迅速更新数据。在不需要Clementine客户端界面的情况下,后台部署Clementine数据挖掘流。Clementine批处理模式在命令行执行,而Clementine Solution Publisher是一个灵活的打分组件,可以嵌入到应用中。这种部署方式可以在数据库内按计划执行,例如一个预测应用需要每月、每周、每天甚至每小时使用最新数据。因为这些运行方式都是执行整个数据流,更新打分时只需重新运行Clementine挖掘流。而且这种使用Clementine Batch或Clementine Solution Publisher的运行方式可以完全被SPSS Predictive Enterprise Service中的Predictive Enterprise Manager 模块自动使用。
不同于其它的数据挖掘解决方案,Clementine能够部署整个数据挖掘过程,包括关键的数据准备,建模以及应用模型打分任务,可以在IBM? DB2? , Oracle? Database, 以及Microsoft? SQL Server?内使用。这些Clementine部署操作因为使用三层体系架构,利用数据库的检索、优化和数据库内挖掘功能,确保高效数据库内挖掘。通常,大部分的公司只使用Clementine客户端运行所需要的批处理打分,而使用Clementine Batch或Clementine Solution Publisher进行周期性打分。Clementine客户端使用数据流描述语言(Stream Description Language)将需要执行的数据挖掘任务发送到Clementine服务器端。Clementine服务器分析挖掘任务决定那些可以在数据库端执行,将数据转移量降至最低。在数据库内运行完这些操作后,将剩余的和已整合的数据传递给Clementine服务器。
39
图9.1:Clementine三层体系架构
策略 2-海量数据批处理方式
许多Clementine实施应用将Clementine数据挖掘流部署在一个可解释的打分引擎上,这样就需要评估数据挖掘的实际时间以及所需的最小代码开发量。数据挖掘的过程可以被描述在一个可以被打分组件或应用程序所解析的文件。而对于海量数据批量打分,其应用在至少部分数据挖掘过程已经转化成某种编程语言,并且编译成计算机可识别代码的基础上。从定义上讲,已编译模式比可解释模式要快。
因为在海量数据打分环境下运行瓶颈经常发生在数据准备阶段而不是对新数据打分阶段,所以SPSS高速打分操作经常使用混合模式。Clementine使用PMML(Predictive Model Markup Language)将预测模型输出给高速打分引擎,PMML是一种描述数据挖掘模型的行业标准的XML标识性语言(PMML标准是一个用于模型交换的中间方式,这个标准是由一个由主流数据挖掘和数据库厂商组建的独立数据挖掘组织制定的)。PMML模型部署是在已将数据准备过程代码化后,将模型描述储存在PMML文件里,然后根据打分数据的要求将整个过程编译。SmartScore? 就是SPSS基于以上应用的PMML打分软件开发包(SDK)。Clementine PMML模型也可以实施在IBM DB2数据库内挖掘,不需要将数据 DB2数据库中迁入牵出,提高了性能。
图9.2:两种典型部署方式
策略3-实时封装方式
预测型分析应用在特定商业目标上时,通常需要实时、高速的对大数据集打分,SPSS预测分析应用例如PredictiveCallCenter? and PredictiveWebSite? 就是为已存在的客户交互功能软件和CRM系统而设计的实时高速产品。PredictiveCallCenter?与呼叫中心系统集成,提供如提升销售、交叉销售、客户保留等的即时推荐和决定支持。采用被已证明可行性商业规则结合实时预测分析技术,PredictiveCallCenter?自动提供推荐内容并结合销售意见和其他代理需要知道的信息将其推荐内容显示在代办人员的屏幕上。
Clementine可以将Clementine预测模型直接发布到SPSS预测分析应用产品上如PredictiveCallCenter。这样就允许将你自己训练的复杂模型使用
40