您现在的位置是:主页 > news > 网站建设三站合一/自己建立网站步骤
网站建设三站合一/自己建立网站步骤
admin2025/5/11 13:13:36【news】
简介网站建设三站合一,自己建立网站步骤,网站建设需要什么硬件和软件有哪些方面,网站建设与建设一.JAVA部分 maven需要提前自行安装 第一步:使用idea新建maven项目 第二步:填入项目名/包名 第三步:选择自己maven的安装路径 第四步:选择项目存放位置,最后finish 第五步:右下角会有个弹框选择 第…
网站建设三站合一,自己建立网站步骤,网站建设需要什么硬件和软件有哪些方面,网站建设与建设一.JAVA部分 maven需要提前自行安装 第一步:使用idea新建maven项目 第二步:填入项目名/包名 第三步:选择自己maven的安装路径 第四步:选择项目存放位置,最后finish 第五步:右下角会有个弹框选择 第…
一.JAVA部分
maven需要提前自行安装
-
第一步:使用idea新建maven项目
-
第二步:填入项目名/包名
-
第三步:选择自己maven的安装路径
-
第四步:选择项目存放位置,最后finish
-
第五步:右下角会有个弹框选择
-
第六步:在项目列表选择pom.xml
-
第七步:修改pom.xml文件(修改完后版本号字体会是红色,右下角会有下载进度条,等待完成即可)
如何该部分遇到问题,可能是下载没成功,可以根据错误提示查找处理方法
<?xml version="1.0" encoding="UTF-8"?><project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><groupId>cn.kgc.kb09</groupId><artifactId>hdfs</artifactId><version>1.0-SNAPSHOT</version><properties><project.build.sourceEncoding>UTF-8</project.build.sourceEncoding><maven.compiler.source>1.8</maven.compiler.source><maven.compiler.target>1.8</maven.compiler.target></properties><dependencies><dependency><groupId>junit</groupId><artifactId>junit</artifactId><version>4.12</version><scope>test</scope></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>2.6.0</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-hdfs</artifactId><version>2.6.0</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-core</artifactId><version>1.2.0</version></dependency></dependencies>
</project>
-
第八步:安装好后可以在external libraries下看到茫茫多的包
-
第八步:在src/main/自己创建的包名下新建Class
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import java.net.URI;/*** @ Author: Zhangyu* @ Date: 2020/9/10* @ Description:*/
public class testHDFS {public static void main(String[] args) throws Exception{//注意使用类的时候选择rg.apache.hadoop...包下的FileSystem fs=FileSystem.get(new URI("hdfs://IP地址:9000"),new Configuration(),"root");//创建目录fs.mkdirs(new Path("/hello/nihao/wohenhao"));//copyFromLocalFile方法第一个参数是待上传文件的路径,第二个参数为上传后存放的位置//上传文件:args为执行命令时手动输入的参数数组,0为待上传文件路径fs.copyFromLocalFile(new Path(args[0]),"/hello/nihao/wohenhao");//读取指定文件路径的所有数据显示在输出框中//FSDataInputStream is=fs.open("/hello/nihao/wohenhao/a.txt");//将读取的数据按行输出/*int tmp;while((tmp=is.read())!=-1){System.out.println((char)tmp);}is.close();*///删除目录fs.deleteOnExit("/hello/nihao/wohenhao");}
}
-
第九步:打JAR包
-
第十步:选择需要打jar包的项目后,全选择ok/完成
-
第十一步:Build artifacts
-
第十二步:build
-
第十三步:找到jar包的位置
-
第十四步:将jar包导入linux服务器目录下
实现代码包路径:是java类的路径例如:/scr/main/…
- 第十五步:执行命令(需要启动好Hadoop):
hadoop jar [jar包名] [实现代码包路径] [参数1] [参数2] ...