问题:
您可能感兴趣的问题
- 大数据的定义是()。 A指无法在可承受的时间范围内用常规软件工具进行捕捉.管理和处理的数据集合 B任何超过了一台计算机处理能力的数据量 C具有很大价值的数据 D超过个人PC机或笔记本硬盘存储容量的数据
- HDFS不适合的场景()。 A存储小文件。 B对延迟要求较高的场景。 C支持多用户写入。 D进行文件随机修改。
- HDFS文件被切分成固定大小的数据块,为实现高吞吐率,默认数据块大小为128MB。()
- Storm将Spouts和Bolts组成的网络抽象成topology(类似Job),它可以被提交到Storm集群执行。()
- 在当今云计算.大数据盛行的时代,关系型数据库性能遇到瓶颈,瓶颈的源头一般是在磁盘的I/O上。()
- Storm的主要组件包括( )。 A Spouts和Streams。 B Bolts。 C Topology。 D Stream Groupings。
- 下列属于Hadoop2.0和Hadoop3.0区别的是()。 A Hadoop3.0新增了HDFS HA机制 B Hadoop3.0新增了HDFS federation C Hadoop3.0新增了Y
- 数据处理大致分为两类()。 A OLTP(On-Line Transaction Processing:联机事务处理) B OLAP(On-Line Analytical Processing:联机分
- Kafka集群包含一个或多个服务器,服务器节点称为broker。每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。()
- 下列描述中错误的是()。 A 集群是指一组桌面计算机或服务器通过局域网连接在一起。 B 集群中每个节点都运行自己的操作系统,节点之间使用网络协议进行通信。 C 最大规模的集群称为仓库级计算机(WSC)