GeoWave实践4:将已存于HDFS中的矢量数据发布至GeoServer


目录
  • 步骤
  • 补充

步骤

在GeoWave所在的节点打开两个会话窗口。

会话1

//运行GeoServer,默认端口8080
geowave gs run  

会话2

//更改user为hadoop,获得对HDFS操作的权限
su hadoop
//配置GeoWave CLI以连接到HDFS
geowave config hdfs hdfs://192.168.1.11:8020
//为GeoWave创建数据库TestShp,此处以hbase为例,需要hbase正在使用的zookeeper服务器
geowave store add -t hbase -z 192.168.1.11:2181 TestShp
//添加索引ShpIndex到数据库TestShp,坐标参考系统为EPSG:3857
geowave index add -t spatial -c EPSG:3857 TestShp ShpIndex
//使用spark将已存于HDFS中的矢量数据注入键/值数据库,格式为geotools-vector
geowave ingest sparkToGW -f geotools-vector hdfs://data/test.shp TestShp ShpIndex
//在geoserver中建立名为geowave的工作区
geowave gs ws add geowave
//将一个geowave数据库TestShp作为数据源添加进geoserver,命名为ShpData
geowave gs ds add -ds ShpData TestShp
//从给定的geowave数据库中提供矢量图层给geoserver发布
geowave gs layer add -a VECTOR TestShp

补充

GeoWave 命令行大全

补充1,2,3同GeoWave实践2:使用命令行将本地矢量数据注入hbase并发布至GeoServer

4.运行注入步骤时可能会报缺少依赖的错误,包括gdal库和netcdf库。

//下载gdal库
geowave raster installgdal
//下载netcdf库
sudo yum install netcdf-devel

5.GeoWave也提供将本地文件存储至HDFS中的命令。需要先获得对HDFS操作的权限,并配置GeoWave CLI以连接到HDFS。

//将本地文件test.shp存储至HDFS中的data路径下
geowave ingest localToHdfs -f geotools-vector /TestData/test.shp /data

6.使用命令行将已存于HDFS中的栅格数据发布至GeoServer没有成功,会报错not supported raster file,可能是geowave1.1版本不支持的问题。由于一些原因,之后一段时间会去研究其他东西,看到这篇博客的同志如果有解决方法还请多多指教。