资源预览内容
第1页 / 共37页
第2页 / 共37页
第3页 / 共37页
第4页 / 共37页
第5页 / 共37页
第6页 / 共37页
第7页 / 共37页
第8页 / 共37页
第9页 / 共37页
第10页 / 共37页
亲,该文档总共37页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
,大数据时代 生活、工作与思维的大变革Living, working and thinking big changes,01,大数据时代的思维变革,02,大数据时代的商业变革,03,大数据时代的管理变革,3. 大数据时代的管理变革,3. 大数据时代的管理变革风险,“风险”让数据主宰一切的隐忧,我们时刻都暴露在“第三只眼”之下:亚马逊监视着我们的购物习惯,谷歌监视着我们的网页浏览习惯,而微博似乎什么都知道,不仅窃听到了我们心中的“TA”,还有我们的社交关系网。,无处不在的“第三只眼” 我们的隐私被二次利用了 预测与惩罚,不是因为“所做”,而是因为“将做” 数据独裁 挣脱大数据的困境,无处不在的“第三只眼”,互联网出现之前,如艾可飞和益百利这样的专业数据收集公司就采集、记录了全球范围内大约几百万人口的数据,而它们提供的每个人的个人数据就多达好几百份。 互联网的出现使得监视变得更容易、成本更低廉也更有用处。 亚马逊监视着我们的购物习惯, 谷歌监视着我们的网页浏览习惯, Twitter窃听到了我们心中的“TA”, Facebook似乎什么都知道,包括我们的社交关系网。,无处不在的“第三只眼”,进行大数据分析的人可以轻松地看到大数据的价值潜力,这极大地刺激着他们进一步采集、存储、循环利用我们个人数据的野心。 随着存储成本继续暴跌而分析工具越来越先进,采集和存储数据的数量和规模将爆发式地增长。 如果说在互联网时代我们的隐私受到了威胁,那么大数据时代是否会加深这种威胁呢?这就是大数据的不利影响吗?,无处不在的“第三只眼”,大数据会带来很多危险,因为其核心思想是用规模剧增来改变现状。 挑战: 运用大数据预测来判断和惩罚人类的潜在行为。这是对公平公正以及自由意志的一种亵渎,同时也轻视了决策过程中深思熟虑的重要性。 滥用大数据的力量可能会伤害人身安全,我们的隐私被二次利用了,不是所有的数据都包含了个人信息。 例如, 传感器从炼油厂采集的数据工厂的机器数据、 机场的气象数据 沙井盖爆炸数据等。 事实上,这方面的数据分析并不威胁个人隐私。,我们的隐私被二次利用了,目前所采集的大部分数据都包含有个人信息,而且存在着各种各样的诱因,让我们想尽办法去采集更多、存储更久、利用更彻底,甚至有的数据表面上并不是个人数据,但是经由大数据处理之后就可以追溯到个人了。,我们的隐私被二次利用了,实例:能源的使用情况暴露了一个人的日常习惯、医疗条件和非法行为等。 实例,美国和欧洲部署的一些智能电表每6秒钟采集一个实时读数,这样一天所得到的数据比过去传统电表收集到的所有数据还要多。因为每个电子设备通电时都会有自己独特的“负荷特征”,比如热水器不同于电脑,而它们与Led大麻生长灯又不一样。,我们的隐私被二次利用了,大数据的价值不再单纯来源于它的基本用途,而更多源于它的二次利用。 这就颠覆了当下隐私保护法以个人为中心的思想:数据收集者必须告知个人,他们收集了哪些数据、作何用途,也必须在收集工作开始之前征得个人的同意。 大数据时代,很多数据在收集的时候并无意用作其他用途,而最终却产生了很多创新性的用途。,我们的隐私被二次利用了,1. 法律手段保护告知于许可:大数据的二次利用颠覆了隐私保护法:无法征得个人同意 公司无法告知个人尚未想到的用途,而个人亦无法同意这种尚是未知的用途。 一开始的时候就要用户同意所有可能的用途,也是不可行的。 大数据时代,告知与许可这个经过了考验并且可信赖的基石,要么太狭隘,限制了大数据潜在价值的挖掘,要么就太空泛而无法真正地保护个人隐私。,我们的隐私被二次利用了,2. 技术手段保护模糊化:如果所有人的信息在数据库里,有意识地避免就是此地无银三百两 实例:谷歌的图像采集车在很多国家采集了道路和房屋的图像(以及很多备受争议的数据)。 德国媒体和民众强烈地抗议了谷歌的行为,因为民众认为这些图片会帮助黑帮窃贼选择有利可图的目标。有的业主不希望他的房屋或花园出现在这些图片上,顶着巨大的压力,谷歌同意将他们的房屋或花园的影像模糊化。 但是这种模糊化却起到了反作用,,我们的隐私被二次利用了,3. 另一种技术手段匿名化:指的是让所有能揭示个人情况的信息都不出现在数据集里 随着数据量和种类的增多,大数据促进了数据内容的交叉检验。 实例 2006年8月 美国在线 匿名搜索 65.7万用户的20000万搜索查询组成的数据库。 2006年10月 Netflix Prize 算法竞赛 50万用户的一亿条租赁记录 100万美金,大数据洞察,在大数据时代,不管是告知与许可、模糊化还是匿名化,这三大隐私保护策略都失效了。如今很多用户都觉得自己的隐私已经受到了威胁,当大数据变得更为普遍的时候,情况将更加不堪设想。 各种各样的公司在我们不知情的情况下采集了我们日常生活方方面面的数据,并且进行了数据共享以及一些我们未知的运用,虽然企业和政府拥有的这种采集个人信息的能力,让我们感到很困扰,但也还是没有大数据所引起的另一个新问题让我们更恐慌,那就是用预测来判断我们。,预测与惩罚,大数据预测:罪责判定基于对个人未来行为的预测。大数据可能会否定人的自由意志 实例:美国30多个州的假释委员正使用数据分析来决定是释放还是继续监禁某人。 越来越多的美国城市,从洛杉矶的部分地区到整个里士满(美国弗吉尼亚州首府),都采用了“预测警务”(也就是大数据分析)来决定哪些街道、群体还是个人需要更严密的监控,仅仅因为算法系统指出他们更有可能犯罪。,实例:里士满市的另一个项目中,警察把犯罪数据与其他数据相关联,比方说市里的大公司何时给员工发工资,当地举办音乐会或者运动赛事的时间。这证实了警方对犯罪趋势的预测,有时也会帮助警方推算出更准确的犯罪趋势。 例如,里士满市的警察一直觉得在枪击事件之后会出现一个犯罪高峰期,大数据证明了这种想法,但是也发现了一个漏洞,即高峰不是紧随枪击事件而来的,而是两个星期之后才会出现。,美国国土安全部正在研发一套名为未来行为检测科技(Future Attribute Screening Technology,简称FAST)的安全系统,通过监控个人的生命体征、肢体语言和其他生理模式,发现潜在的恐怖分子。 研究者认为,通过监控人类的行为可以发现他们的不良意图。 美国国土安全部声称,在研究测试中,系统检测的准确度可以达到70%。,大多数情况下,我们已经在以预测之名采用大数据分析。它把我们放在一个特定的人群之中来对我们进行界定。 保险精算表上指出,超过50岁的男性更容易患前列腺癌,所以你如果不幸正好处于这个年龄段,就需要支付更多的保险费用。 没有高中文凭的人更容易偿还不起债务。 有的人在过安检的时候,可能会需要进行额外的检查,仅仅是因为他带有某种特定的特征。,大数据预测只是帮助我们预防不良行为,我们似乎是可以接受的。 倘若使用大数据预测来判定某人有罪并对其尚未实施的行为进行惩罚,就可能陷入一个危险的境地。 基于未来可能行为之上的惩罚是对公平正义的亵渎,因为公平正义的基础是人只有做了某事才需要对它负责。,大数据的不利影响并不是大数据本身的缺陷,而是我们滥用大数据预测所导致的结果。 大数据预测是建立在相关性基础上的。 让人们为还未实施的未来行为买单是带来不利影响的主要原因,因为我们把个人罪责判定建立在大数据预测的基础上是不合理的。,大数据有利于我们理解现在和预见未来的风险,如此一来,我们就可以相对应地采取应对措施。大数据预测可以帮助患者、保险公司、银行和顾客,但是大数据不能告诉我们因果关系。 相对地,进行个人罪责推定需要行为人选择某种特定的行为,他的选择是造成这个行为的原因。大数据并不是建立在因果关系基础上的,所以它完全不应该用来帮助我们进行个人罪责推定。,数据独裁,大数据大大地威胁到了我们的隐私和自由,这都是大数据带来的新威胁。但是与此同时,它也加剧了一个旧威胁:过于依赖数据,而数据远远没有我们所想的那么可靠。 实例:罗伯特麦克纳马拉 美国国防部长 福特汽车公司总裁 数据有其局限性,数据的质量可能会很差,有误导性。,数据独裁,卓越的才华并不依赖数据 实例:google 的数据依赖 Apple乔布斯的才能,小结,大数据为监测我们的生活提供了便利,同时也让保护隐私的法律手段失去了应有的效力。 通过大数据预测,对我们的未来想法而非实际行为采取惩罚措施,也让我们惶恐不安,因为这否认了自由意志并伤害了人类尊严。 同时,那些尝到大数据益处的人,可能会把大数据运用到它不适用的领域,而且可能会过分膨胀对大数据分析结果的信赖。 必须杜绝对数据的过分依赖 下一章,我们将探讨如何让数据为我们所用,而不让我们成为数据的奴隶。,小结,同时,那些尝到大数据益处的人,可能会把大数据运用到它不适用的领域,而且可能会过分膨胀对大数据分析结果的信赖。 必须杜绝对数据的过分依赖 下一章,我们将探讨如何让数据为我们所用,而不让我们成为数据的奴隶。,3. 大数据时代的管理变革掌控,“掌控”责任与自由并举的信息管理,当世界开始迈向大数据时代时,社会也将经历类似的地壳运动。在改变人类基本的生活与思考方式的同时,大数据早已在推动人类信息管理准则上重新定位。然而,不同于印刷革命,我们没有几个世纪的时间去适应,我们也许只有几年时间。,管理变革1:个人隐私保护,从个人许可到让数据使用者承担责任 管理变革2:个人动因VS预测分析 管理变革3:击碎黑盒子,大数据程序员的崛起 管理变革4:反数据垄断大亨,管理变革1:个人隐私保护,从个人许可到让数据使用者承担责任,对于一些危险性较大的项目,管理者必须设立规章,规定数据使用者应如何评估风险、如何规避或者减轻潜在伤害。 例如,数据化个人坐姿信息,如预测驾驶员的注意力状况(如昏昏欲睡、醉酒以及暴怒等),向周围其他驾驶员发出警报以防止发生交通事故。根据目前的隐私规范,需要新一轮的告知与许可。,从个人许可到让数据使用者承担责任,因为将责任从民众转移到数据使用者很有意义因为数据使用者比其他人更明白他们想怎么样使用数据,也因为他们是最大利益获得者:监管机制可以决定不同种类的个人数据必须删除的时间 “差别隐私”:信息模糊,管理变革2:个人动因VS预测分析,依据大数据预测做出的决策,特定的防护措施必须到位: 公开原则,包括数据和算法 公正原则,第三方专家公证的可靠、有效的算法系统。 可反驳原则。明确提出个人可以对其预测进行反驳的具体方式。 确保个人动因能防范“数据独裁”的危害。,管理变革3:击碎黑盒子,大数据算法师的崛起,计算机科学、数学和统计学领域的专家 保证公正和保密 外部算法师:公证的审计员角色 内部算法师:监督机构内部大数据活动,管理变革4:反数据垄断大亨,为了确保给大数据提供一个与早期技术领域情况相当的活跃的市场环境,我们应该事先数据交易,比如通过授权和协同合作的方式。,结语,正在发生的未来,大数据并不是一个充斥着算法和机器的冰冷世界,人类的作用依然无法被完全替代。大数据为我们提供的不是最终答案,只是参考答案,帮助是暂时的,而更好的方法和答案还在不久的未来。,
收藏 下载该资源
网站客服QQ:2055934822
金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号