HDFS无法高效存储大量小文件,想让它能处理好小文件,比较可行的改进策略不包括 A .利用SequenceFile、MapFile、Har等方式归档小文件()
A. 多Master设计 C . Block大小适当调小
B. 调大 namenode内存或将文件系统元数据存到硬盘里
查看答案
Hadoop fs 中的-get和-put命令操作对象是()
A. 文件 B .目录
B. 两者都是
以下四个Hadoop预定义的 Mapper 实现类的描述错误的是()
A. . ldentityMapper实现 Mapper,将输入直接映射到输出
B. .lnverseMapper实现 Mapper,反转键/值对
C. . RegexMapper实现 Mapper,为每个常规表达式的匹配项生成一个(match,1)对 D. TokenCountMapper实现 Mapper,当输入的值为分词时,生成(taken, 1)对
下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是()
A. . FSDatalnputStream扩展了DatalnputStream以支持随机读
B. .为实现细粒度并行,输入分片(Input Split)应该越小越好
C. .—台机器可能被指派从输入文件的任意位置开始处理一个分片 D.输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分 割
针对每行数据内容为"Timestamp Url”的数据文件,在用JobConf对象 conf设置conf.setInputFormat(WhichInputFormat.class)来读取这个文件时,WhichInputFormat应该为以下的( ) A . TextInputFormat
A. KeyValueTextInputFormat
B. SequenceFileInputFormat D . NLinelnputFormat