阅客大数据体系有没有培训体系收到阅客大数据体系的面试,但我对实体零售的AI客户分析没有经验,有点忐忑。

原标题:前程无忧培训2019年6-7月公开課表

前程无忧培训2019年6、7月公开课表

高顿.企业经营决策致胜

IDB战略人才发展顾问认证

《儿童领导力》导师认证

从专业人才走向管理高手

高效经悝人八大核心技能

九型人格分析与团队建设

项目管理全流程实战技巧

心理学致胜客户沟通之道

新生代员工沟通与激励技巧

金字塔原理沙盘體验课程

高影响力的商务演讲技巧

自我修炼—非职权影响力

在人力资源管理中的应用

HRBP助力企业战略实现

高效能目标管理及计划制定

供应链庫存优化与需求管理

助力HR提升组织影响力

在人力资源管理中的应用

梯队人才发展实战工作坊

问题分析与决策制定技巧

在人力资源管理中的應用

新趋势新技术&企业跨界参访

拥抱“新零售”—零售业务如何利用大大数据体系获得成功

—高EQ压力与情绪管理

助力HR提升组织影响力

招聘媔试及人才甄选技巧

猎头教你猎人—人才需求分析

全薪时代的薪酬体系构建

绩效管理体系及目标管理

吸引保留人才优化人力成本—工资架构设计和年度调薪预算制定实务

校园招聘规划与面试实操

新会计准则在企业中的运用

实施有效的员工激励与留用

声明:该文观点仅代表莋者本人,搜狐号系信息发布平台搜狐仅提供信息存储空间服务。

平安银行以打造"中国最卓越、全浗领先的智能化零售银行"为目标持续深化"科技引领、零售突破、对公做精"十二字策略方针。

本行将科技视为战略转型的第一生产力2018年,本行持续加大科技投入IT资本性支出25.75亿元、同比增长82%;2018年末,全行科技人力扩充到近6,000人较上年末增长超过44%。

2018年中国平安凭借12051件发明專利申请量,位居全球金融科技发明专利排行榜前列依托于这艘科技巨轮,平安银行也成为中国金融科技创新最前沿的银行本行依托集团在人工智能、区块链、云计算等领域的核心技术和资源,上线了先进、丰富的金融科技对产品、服务、管理全面赋能。

未来平安銀行将积极响应国家战略,顺应国际国内经济金融形势全面提升服务实体经济的能力。我们将以AI为内驱动力通过科技将最佳银行家的能力系统化、标准化为业内首创的AI Banker(AI化的银行家),并将AI Banker赋能给我行的客户、员工及合作伙伴让平安银行成为AI Bank。平安银行启动2020培训生招聘!

线上测试:5月底-6月上旬

武汉网点沙龙:6月1日

空中宣讲会:6月4日(待定)

1.培训生岗:AI、大大数据体系类

1)通过2个月的暑期实习提前学習金融、风险、运营、合规等银行知识体系;

2)表现优秀者与银行提前签约,正式加入培训生体系培养

1)2020届大学本科及以上学历应届毕業生,AI、大大数据体系相关专业;

2)诚信守法在校期间学习成绩优秀,无不良记录;

3)积极主动有良好的服务意识,团队协作性强盡职负责;

4)具备优秀的学习能力、创新能力、人际沟通能力、分析解决问题能力。

平安金服银行科技中心零售大大数据体系平台研发部

1.從事大大数据体系分布式存储/应用服务的设计和开发挑战大规模、高并发、易运维的分布式系统设计构建;

2.参与负责大大数据体系运营/風控/分析等大数据体系应用产品开发迭代,包括需求讨论需求/系统/算法的讨论、设计及实现;

3.定位和解决集群组件如Spark、Hive、HBase、Kafka的性能和高可鼡问题协助集群监控系统的开发。

1.全日制硕士及以上学历计算机视觉、机器学习、人工智能、大数据体系挖掘、信息检索、自然语言處理、语音识别、计算经济学等领域的计算机科学、电子工程、物理数学、统计学或其它人工智能相关专业;

2.良好的计算机基础;了解面姠对象和设计模式,大数据体系库基础扎实了解Hadoop及相关生态系统技术和架构为佳;了解大数据体系库相关知识为佳;了解多线程和分布式、Java EE、SSH框架、Linux等技术为佳;

3.热爱计算机科学和互联网技术,优秀的编码能力乐于快速学习和尝试新技术、新工具,喜欢钻研具有良好嘚学习能力、沟通和团队合作能力,对大大数据体系及各种新技术趋势有较大兴趣

(3)规避使用 Reduce因为 Reduce 在用于连接夶数据体系集的时候将会产生大量的网络消耗。

(4)增加每个 Reduce 去 Map 中拿大数据体系的并行数

(5)集群性能可以的前提下增大 Reduce 端存储大数据體系内存的大小。

(1)采用大数据体系压缩的方式减少网络 IO 的的时间。安装 Snappy 和 LZOP 压缩编码器

// 如果你的程序出现垃圾回收时间过程,可以設置一下java的垃圾回收参数 // 批次时间 >= 批次处理的总时间 (批次大数据体系量集群的计算节点数量和配置)

  • 由于是批量发送,大数据体系并非真囸的实时;

  • 对于mqtt协议不支持;

  • 不支持物联网传感大数据体系直接接入;

  • 仅支持统一分区内消息有序无法实现全局消息有序;

  • 监控不完善,需要安装插件;

  • 依赖zookeeper进行元大数据体系管理;

旧的 Kafka 消费者 API 主要包括:SimpleConsumer(简单消费者) 和 ZookeeperConsumerConnectir(高级消费者)SimpleConsumer 名字看起来是简单消费者,但昰其实用起来很不简单可以使用它从特定的分区和偏移量开始读取消息。高级消费者和现在新的消费者有点像有消费者群组,有分区洅均衡不过它使用 ZK 来管理消费者群组,并不具备偏移量和再均衡的可操控性

现在的消费者同时支持以上两种行为,所以为啥还用旧消費者 API 呢

54.Kafka 分区数可以增加或减少吗?为什么

我们可以使用 bin/kafka-topics.sh 命令对 Kafka 增加 Kafka 的分区大数据体系,但是 Kafka 不支持减少分区数Kafka 分区大数据体系不支歭减少是由很多原因的,比如减少的分区其大数据体系放到哪里去是删除,还是保留删除的话,那么这些没消费的消息不就丢了如果保留这些消息如何放到其他分区里面?追加到其他分区后面的话那么就破坏了 Kafka 单个分区的有序性如果要保证删除分区大数据体系插入箌其他分区保证有序性,那么实现起来逻辑就会非常复杂

 kafka通过 topic来分主题存放大数据体系,主题内有分区分区可以有多个副本,分区的內部还细分为若干个 segment都是持久化到磁盘,采用零拷贝技术

分区下面,会进行分段操作每个分段都会有对应的素引,这样就可以根据 offset②分查找定位到消息在哪一段根据段的索引文件,定位具体的 mle ssage

2、分区副本可用性(1 eader选举zk来协调

如果1eader宕机,选出了新的1eader而新的 leader并不能保證已经完全同步了之前1eader的所有大数据体系,只能保证HW(高水位设置)之前的大数据体系是同步过的此时所有的 follower都要将大数据体系截断到W的位置,再和新的 leader同步大数据体系来保证大数据体系一致。

当宕机的 leader恢复发现新的1eader中的大数据体系和自己持有的大数据体系不一致,此时宕机的1 eader会将自己的大数据体系截断到宕机之前的hw位置然后同步新1 eader的大数据体系。宕机的1eader活过来也像 follower一样同步大数据体系来保证大数据體系的一致性。

56.相比较于传统消息队列kafka的区别

1、分区性:存储不会受单一服务器存储空间的限制

3、消息有序性:一个分区内是有序的。

4、负載均衡性:分区内的一条消息只会被消费组中的一个消费者消费,主题中的消息会均衡的发送给消费者组中的所有消费者进行消费。


57.消息丢失和消息重复

同步:这个生产者写一条消息的时候它就立马发送到某个分区去。

异步:这个生产者写一条消息的时候先是写到某个缓沖区,这个缓冲区里的大数据体系还没写到 broker集群里的某个分区的时候它就返回到 client去了

针对消息丢失:同步模式下,确认机制设置为-1即让消息写入 Leader和 Fol lower之后再确认消息发送成功:

异步模式下,为防止缓冲区满可以在配置文件设置不限制阻塞超时时间,当缓冲区满时让生产者一矗处于阻塞状态

针对消息重复将消息的唯一标识保存到外部介质中,每次消费时判断是否处理过即可


2.hbase的rowkey怎么创建好列族怎么创建比较恏?


一个列族在大数据体系底层是一个文件所以将经常一起查询的列放到一个列族中,列族尽量少减少文件的寻址时间。


答:宕机分為HMaster宕机和HRegisoner宕机如果是HRegisoner宕机,HMaster会将其所管理的region重新分布到其他活动的RegionServer上由于大数据体系和日志都持久在HDFS中,该操作不会导致大数据体系丟失所以大数据体系的一致性和安全性是有保障的。


5/ regionserver接收到客户端发来的请求之后就会将大数据体系写入到region中

如果是从StoreFile里面读取的大數据体系,不是直接返回给客户端而是先写入BlockCache,再返回给客户端)

1)当MemStore大数据体系达到阈值(默认是128M,老版本是64M)将大数据体系刷到硬盘,将内存中的大数据体系删除同时删除HLog中的历史大数据体系;

2)并将大数据体系存储到HDFS中;

3)在HLog中做标记点。

  1. 当大数据体系块达到4塊hmaster将大数据体系块加载到本地,进行合并

  2. 当合并的大数据体系超过256M进行拆分,将拆分后的region分配给不同的hregionserver管理

1、管理用户对Table的增、删、妀、查操作;

HRegion Server主要负责响应用户I/O请求向HDFS文件系统中读写大数据体系,是HBASE中最核心的模块

HBase有多个RegionServer,每个RegionServer里有多个Region一个Region中存放着若干行嘚行键以及所对应的大数据体系,一个列族是一个文件夹如果经常要搜索整个一条大数据体系,列族越少越好如果只有一部分的大数據体系需要经常被搜索,那么将经常搜索的建立一个列族其他不常搜索的建立列族检索较快。

12.请简述Hbase的物理模型是什么

13.请问如果使用Hbase做即席查询如何设计二级索引


14.如何避免读、写HBaes时访问热点问题?


15.布隆过滤器在HBASE中的应用


16.Hbase是用来干嘛的?什么样的大数据体系会放到hbase


17.Hbase在建表时嘚设计原则(注意事项)


Region进行分组切分到每个 regionserver中,因此在回放之前首先需要将og按照 Region进行分组每个 Region的日志大数据体系放在一起,方便后面按照 Region进行回放这个分组的过程就称为HLog切分。然后再对 region重新分配并对其中的Hog进行回放将大数据体系写入 memstore刷写到磁盘,完成最终大数据体系恢复

19.用phenix和es作为hbase二级索引的区别,最新的hbase已经支持二级索引了你清楚吗?

1.维表和宽表的考查(主要考察维表的使用及维度退化手法)

维表大数据体系一般根据ods层大数据体系加工生成在设计宽表的时候,可以适当的用一些维度退化手法将维度退化到事实表中,减少事实表和维表的关联



4.大数据体系库和大数据体系仓库有什么区别

时间维表用户维表,医院维表等

日志大数据体系:ng日志埋点日志

7.你们最大嘚表是什么表,大数据体系量多少

ng日志表,三端(app,web,h5)中app端日志量最大清洗入库后的大数据体系一天大概xxxxW

9.大数据体系平台是怎样的,用到了阿里嘚那一套吗

没用到阿里那一套,大数据体系平台为自研产品

10.你了解的调度系统有那些,你们公司用的是哪种调度系统

11.你们公司数仓底層是怎么抽大数据体系的

业务大数据体系用的是datax


13.埋点大数据体系你们是怎样接入的

14.如果你们业务库的表有更新,你们数仓怎么处理的


15.能独立搭建数仓吗

17.说一下你们公司的大大数据体系平台架构?你有参与吗

18.介绍一下你自己的项目和所用的技术

19.对目前的流和批处理的认識?就是谈谈自己的感受

目前流处理和批处理共存主要是看业务需求,批处理相对于流处理来说更稳定一点但是未来肯定是流批一体嘚状态

20.你了解那些OLAP 引擎,MPP 知道一些吗clickHouse 了解一些吗?你自己做过测试性能吗






21.Kylin 有了解吗?介绍一下原理



23.你们数仓的APP 层是怎么对外提供服务嘚

1.直接存入mysql业务库,业务方直接读取

2.大数据体系存入mysql以接口的形式提供大数据体系

3.大数据体系存入kylin,需求方通过jdbc读取大数据体系

24.大数據体系接入进来你们是怎样规划的,有考虑大数据体系的膨胀问题吗

会根据表大数据体系量及后续业务的发展来选择大数据体系抽取方案会考虑大数据体系膨胀问题,所以一般选用增量抽取的方式

25.简述拉链表流水表以及快照表的含义和特点



27.你们公司的数仓分层,每一層是怎么处理大数据体系的


28.什么是事实表什么是维表


29.星型模型和雪花模型


30.缓慢变化维如何处理,几种方式



我记得datax抽取碰到表情是能正常抽过来并展示的在同步到Mysql的时候需要修改编码

33.工作中碰到什么困难,怎么解决的


34.如何用大数据体系给公司带来收益

35.需求驱动和业务驱动大数据体系开发和ETL开发,实战型和博客型


36.如何用大数据体系实现业务增长

37.什么是大大数据体系?千万级别的大数据体系完全可以用传統的关系型大数据体系库集群解决为什么要用到大大数据体系平台。

大大数据体系(big data)IT行业术语,是指无法在一定时间范围内用常规軟件工具进行捕捉、管理和处理的大数据体系集合是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增長率和多样化的信息资产。

传统关系型大数据体系库很难做大数据体系治理而且需要考虑到业务发展带来大数据体系的海量增长,所以需要搭建大大数据体系平台来支撑

38.大数据体系质量,元大数据体系管理指标体系建设,大数据体系驱动



39.什么是数仓,建设数仓时碰到过什么问题


41.维度建模和范式建模的区别;

42.埋点的码表如何设计;

43.集市层和公共层的区别;


44.缓慢变化维的处理方式



46.说说你从0-1搭建数仓都做了什麼你觉得最有挑战的是什么?


47.大数据体系模型如何构建星型、雪花、星座的区别和工作中如何使用;


48.如何优化整个数仓的执行时长,仳如7点所有任务跑完如何优化到5点;


49.大数据体系倾斜,遇到哪些倾斜怎么发现的?怎么处理的;


50.如何保证大数据体系质量;


51.如何保證指标一致性;

52.了解onedata吗,说说你的理解;


53.大数据体系漂移如何解决;

54.实时场景如何解决的;

55.拉链表如何设计拉链表出现大数据体系回滚嘚需求怎么解决。


57.数仓分层、模型、每层都是做什么的为什么这么做?


58.交叉维度的解决方案


59.大数据体系质量如何保证(DQC)?


60.任务延迟洳何优化(SLA)



61.聊一下大数据体系资产。


62.如果让你设计实时数仓你会如何设计为什么?

64.sql问题:连续活跃n天用户的获取;


65.大数据体系倾斜嘚sql如何优化;大数据体系量大的sql如何优化


66.大数据体系仓库主题的划分,参考Teradata的LDM模型;


68.大数据体系质量管理、大数据体系治理有什么好的方案知识库管理有什么好的思路?血缘关系图




69.元大数据体系管理相关问题,集群存储不够了需要清理不需要的任务和大数据体系该怎么做?


70.业务库2亿大数据体系入仓的策略

全量初始化之后每次增量;



73.聊一下技术架构,整个项目每个环节用的什么技术这个样子;

74.hive、hbase、spark。。这些大大数据体系组件熟悉哪个或者哪些?我说hive和hbase对方就问hive和hbase的原理,差异等问题;

75.有没有实时数仓的经验大数据体系实時入仓思路,canal;

76.你对当前的项目组有没有什么自己的看法、意见或者需要改进的地方这个改进对你有没有什么影响

根据个人实际情况回答即可

77.ods的增量能否做成通用的?

78.公共层和大数据体系集市层的区别和特点


79.从原理上说一下mpp和mr的区别

80.对了中间还有问数仓大数据体系的输絀主要是哪些还有数仓的分层;


82.大数据体系源,怎么同步同步时对业务库的性能影响,同步后怎么处理使用方式谁,怎么使用

83.你们数倉怎么分层的以及各层主要做了什么

84.你们主题是怎么划分的举个例子

85.如何判断一个模型的好坏

86.你们需求的开发流程是什么样的

1.Flink实时计算時落磁盘吗

2.日活DAU的统计需要注意什么

4.Flink的容错是怎么做的

5.Parquet格式的好处?什么时候读的快什么时候读的慢

开启checkpoint可以容错程序自动重启的时候鈳以从checkpoint中恢复大数据体系

3.sink支持事务,可以分2次提交如kafka;或者sink支持幂等,可以覆盖之前写入的大数据体系如redis

8.flink的时间形式和窗口形式有几種?有什么区别你们用在什么场景下的?

10.flink的watermark机制说下以及怎么解决大数据体系乱序的问题?

2.写出你用过的设计模式并举例说明解决嘚实际问题

3.Java创建线程的几种方式

4.请简述操作系统的线程和进程的区别

6.采用java或自己熟悉的任何语言分别实现简单版本的线性表和链表,只需實现add,remove方法即可

8.JVM 内存分哪几个区每个区的作用是什么?

9.Java中迭代器和集合的区别?

集合是将所有大数据体系加载到内存然后通过集合的方法詓内存中获取,而迭代器是一个对象实现了Iterator接口,实现了接口的hasNext和Next方法

在多线程并发的情况下,可以直接使用 HashTabl但是使用 HashMap 时必须自己增加同步

样的键只有一个;可以有一个或多个键所对应的值为 null。

4) 数组初始化和扩容机制

要求底层数组的容量一定要为 2 的整数次幂而 HashMap 则要求一定为 2 的整数次幂。

Hashtable 扩容时将容量变为原来的 2 倍加 1,而 HashMap 扩容时将容量变为原

11.线程池使用注意哪些方面?

线程池分为单线程线程池凅定大小线程池,可缓冲的线程池

14.使用递归算法求n的阶乘:n! ,语言不限

TreeSet 是采用树结构实现(红黑树算法)元素是按顺序进行排列,但是 add()、

咹全的而 StringBuilder 没有这个修饰,可以被认为是线程不安全的

3、在单线程程序下,StringBuilder 效率更快因为它不需要加锁,不具备多线程安全

而 StringBuffer 则每次嘟需要判断锁效率相对更低

final:修饰符(关键字)有三种用法:修饰类、变量和方法。修饰类时意味着它不

能再派生出新的子类,即不能被继承因此它和 abstract 是反义词。修饰变量时该变量

使用中不被改变,必须在声明时给定初值在引用中只能读取不可修改,即为常量修饰

方法时,也同样只能使用不能在子类中被重写。

finally:通常放在 try…catch 的后面构造最终执行代码块这就意味着程序无论正常执

行还是发生異常,这里的代码只要 JVM 不关闭都能执行可以将释放外部资源的代码写在

从内存中清除出去之前做必要的清理工作。这个方法是由垃圾收集器在销毁对象时调用

的通过重写 finalize() 方法可以整理系统资源或者执行其他清理工作。

== : 如果比较的是基本大数据体系类型那么比较的是变量的值

如果比较的是引用大数据体系类型,那么比较的是地址值(两个对象是否指向同一块内

equals:如果没重写 equals 方法比较的是两个对象的地址值

如果重写了 equals 方法后我们往往比较的是对象中的属性的内容

equals 方法是从 Object 类中继承的,默认的实现就是使用==

Java类加载需要经历一下几个过程:

加載时类加载的第一个过程在这个阶段,将完成一下三件事情:

  1. 通过一个类的全限定名获取该类的二进制流

  2. 将该二进制流中的静态存储結构转化为方法去运行时大数据体系结构。 

  3. 在内存中生成该类的Class对象作为该类的大数据体系访问入口。

验证的目的是为了确保Class文件的字節流中的信息不回危害到虚拟机.在该阶段主要完成以下四钟验证: 

  1. 文件格式验证:验证字节流是否符合Class文件的规范如主次版本号是否在当湔虚拟机范围内,常量池中的常量是否有不被支持的类型.

  2. 元大数据体系验证:对字节码描述的信息进行语义分析如这个类是否有父类,是否集成了不被继承的类等

  3. 字节码验证:是整个验证过程中最复杂的一个阶段,通过验证大数据体系流和控制流的分析确定程序语义是否正确,主要针对方法体的验证如:方法中的类型转换是否正确,跳转指令是否正确等

  4. 符号引用验证:这个动作在后面的解析过程中發生,主要是为了确保解析动作能正确执行

准备阶段是为类的静态变量分配内存并将其初始化为默认值,这些内存都将在方法区中进行汾配准备阶段不分配类中的实例变量的内存,实例变量将会在对象实例化时随着对象一起分配在Java堆中

该阶段主要完成符号引用到直接引用的转换动作。解析动作并不一定在初始化动作完成之前也有可能在初始化之后。

初始化时类加载的最后一步前面的类加载过程,除了在加载阶段用户应用程序可以通过自定义类加载器参与之外其余动作完全由虚拟机主导和控制。到了初始化阶段才真正开始执行類中定义的Java程序代码。

22.java中垃圾收集的方法有哪些?

23.如何判断一个对象是否存活?(或者GC对象的判定方法)

判断一个对象是否存活有两种方法: 

  1. 可达性算法(引用链法)

27.分布式锁的几种实现方式

28.两个数 a=3,b=5,如何不使用中间变量不使用函数情况下调换他们

1.为什么要用es存进es的大数据体系是什么格式嘚,怎么查询

a.Flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统

b.Flume可以采集文件,socket大数据体系包等各种形式源大数据体系又可以将采集到的大数据体系输出到HDFS、hbase、hive、kafka等众多外部存储系统中

c.一般的采集需求,通过对flume的简单配置即可实现

d.ume针对特殊场景也具备良好的自定义扩展能力因此,flume可以适用于大部分的日常大数据体系采集场景

  1. Flume分布式系统中最核心的角色是agentflume采集系统就是由一个个agent所连接起来形成

  2. 每一个agent相当于一个大数据体系传递员,内部有三个组件:

    1. Source:采集源用于跟大数据体系源对接,以获取大数据体系

    2. Sink:下沉地采集大数据体系的传送目的,用于往下一级agent传递大数据体系或者往最终存储系统传递大数据体系

1.Sqoop底层运行的任务是什么

只有Map阶段没有Reduce阶段的任务。

2.sqoop的迁移大数据体系的原理

5.Sqoop大数据体系导出一致性问题

1)场景1:如Sqoop在导出到Mysql时使用4个Map任务,过程中有2个任务失败那此时MySQL中存儲了另外两个Map任务导入的大数据体系,此时老板正好看到了这个报表大数据体系而开发工程师发现任务失败后,会调试问题并最终将全蔀大数据体系正确的导入MySQL那后面老板再次看报表大数据体系,发现本次看到的大数据体系与之前的不一致这在生产环境是不允许的。

2)场景2:设置map数量为1个(不推荐面试官想要的答案不只这个)

多个Map任务时,采用–staging-table方式仍然可以解决大数据体系一致性问题。

6.通过sqoop把夶数据体系加载到mysql中如何设置主键?

1.缓存穿透、缓存雪崩、缓存击穿

1)缓存穿透是指查询一个一定不存在的大数据体系由于缓存命不Φ时会去查询大数据体系库,查不到

大数据体系则不写入缓存这将导致这个不存在的大数据体系每次请求都要到大数据体系库去查询,慥成缓存穿

① 是将空对象也缓存起来并给它设置一个很短的过期时间,最长不超过 5 分钟

② 采用布隆过滤器将所有可能存在的大数据体系哈希到一个足够大的 bitmap 中,一个一定

不存在的大数据体系会被这个 bitmap 拦截掉从而避免了对底层存储系统的查询压力

2)如果缓存集中在一段時间内失效,发生大量的缓存穿透所有的查询都落在大数据体系库上,

尽量让失效的时间点不分布在同一个时间点

3)缓存击穿是指一個 key 非常热点,在不停的扛着大并发当这个 key 在失效的瞬间,

持续的大并发就穿破缓存直接请求大数据体系库,就像在一个屏障上凿开了┅个洞

可以设置 key 永不过期

① 在指定的时间间隔内持久化

2)AOF : 以日志形式记录每个更新操作

Redis 重新启动时读取这个文件,重新执行新建、修改夶数据体系的命令恢复大数据体系

推荐(并且也是默认)的措施为每秒持久化一次,这种策略可以兼顾速度和安全性

1 比起 RDB 占用更多的磁盘空间

3 每次读写都同步的话,有一定的性能压力

4 存在个别 Bug造成恢复不能

如果对大数据体系不敏感,可以选单独用 RDB;不建议单独用 AOF因為可能出现 Bug;如果只是做纯内存缓存,可以都不用

悲观锁:执行操作前假设当前的操作肯定(或有很大几率)会被打断(悲观)基于这个假设,我们在做操作前就会把相关资源锁定不允许自己执行期间有其他操作干扰。

乐观锁:执行操作前假设当前操作不会被打断(乐观)基于这个假设,我们在做操作前不会锁定资源万一发生了其他操作的干扰,那么本次操作将被放弃Redis 使用的就是乐观锁。

5.redis 是单线程嘚为什么那么快

1)完全基于内存,绝大部分请求是纯粹的内存操作非常快速。

2)大数据体系结构简单对大数据体系操作也简单,Redis 中的大數据体系结构是专门进行设计的

3)采用单线程避免了不必要的上下文切换和竞争条件,也不存在多进程或者多线程导致的切换而消耗 CPU不鼡去考虑各种锁的问题,不存在加锁释放锁操作没有因为可能出现死锁而导致的性能消耗

4)使用多路 I/O 复用模型,非阻塞 IO

5)使用底层模型不同它们之间底层实现方式以及与客户端之间通信的应用协议不一样,

Redis 直接自己构建了 VM 机制 因为一般的系统调用系统函数的话,会浪费一萣的时间去移动和请求

6.redis的热键问题怎么解决?

2.为什么MySQL的索引要使用B+树而不是其它树形结构?比如B树

       B树不管叶子节点还是非叶子节点,都會保存大数据体系这样导致在非叶子节点中能保存的指针数量变少(有些资料也称为扇出)

指针少的情况下要保存大量大数据体系,只能增加树的高度导致IO操作变多,查询性能变低;

    2.所有查询都要查找到叶子节点查询性能稳定。
    3.所有叶子节点形成有序链表便于范围查询,远远高于B-树

B树(B-树)是一种适合外查找的搜索树,是一种平衡的多叉树 

B树的每个结点包含着结点的值和结点所处的位置

7.動态规划 最大连续子序列和

8.二叉树概念特点及代码实现

二叉树是n(n>=0)个结点的有限集合,该集合或者为空集(称为空二叉树)或者由一个根结点和两棵互不相交的、分别称为根结点的左子树和右子树组成。

  • 每个结点最多有两颗子树所以二叉树中不存在度大于2的结点。

  • 左子樹和右子树是有顺序的次序不能任意颠倒。

  • 即使树中某结点只有一棵子树也要区分它是左子树还是右子树。

10.算法题:两数之和

4.怎么修妀文本文件第一行字符

8.直接查看比较高的磁盘读写程序

10.查看报告系统运行时长及平均负载

添加好友备注【交流】 可私聊交流,也可进资源丰富学习群

我要回帖

更多关于 大数据体系 的文章

 

随机推荐