需要注意的地方是:
1.jar包要导全,不然会出现各自问题
2.只写Configuration conf=new Configuration();的情况下,要将core-site.xml和hdfs-site.xml放入src。这是为了让其读取配置信息。否则要写set语句,还是比较麻烦的。
3.文件上传时要注意配置上传用户。
4.注意使用不同的流,FSDataInputStream和FileInputStream是不同的,output同理。
5.注意fs.open()和fs.create()的不同。
6.还有copyFromLocalFile()和copyToLocalFile()两个封装好的方法,这里就不写了。
package hadoop.hdfs;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
import org.apache.commons.io.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.jupiter.api.Test;
public class HDFSUtil {
@Test
public void download() throws IOException {
//从hdfs下载文件
Configuration conf=new Configuration();
FileSystem fs = FileSystem.get(conf);
Path src=new Path("hdfs://Ubuntu01:9000/google-chrome-stable_current_amd64.deb");
FSDataInputStream in=fs.open(src);
FileOutputStream os=new FileOutputStream("/home/czq/download/jdk.tgz");
IOUtils.copy(in, os);
}
@Test
public void upload() throws IOException, InterruptedException, URISyntaxException {
//上传文件到hdfs
Configuration conf=new Configuration();
FileSystem fs = FileSystem.get(new URI("hdfs://Ubuntu01:9000/"),conf,"czq");
Path src=new Path("hdfs://Ubuntu01:9000/111.deb");
FileInputStream in=new FileInputStream("/home/czq/download/jdk.tgz");
FSDataOutputStream os = fs.create(src);
IOUtils.copy(in, os);
}
}
版权声明:本文为q435201823原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。