博客
关于我
ArcGIS数据编码
阅读量:153 次
发布时间:2019-02-28

本文共 960 字,大约阅读时间需要 3 分钟。

  • 前言

arcgis10.2及以前是 936编码

arcgis 10.3及以后是utf-8编码

cpg文件是arcgis自主的编码定义文件,例如:

 

arcgis软件在创建数据时,会将数据编码的格式自动写在dbf文件首行;

如果没有写,那么会在在cpg文件中指明。

  • 正确编码的数据:

  • 出现dbf乱码的情景,两种:

第一种:数据本身是utf-8编码,但是用户在cpg文件中却指定成了936,那么就会出现乱码。

解决办法:在cpg文件将编码格式改成utf-8即可;

第二种:数据本身是utf-8编码,但是用户在cpg文件中指定成了936格式,同时还将错误编码的数据导出了。

解决方法:无。用了错误的编码方式读了现有编码,然后重写出来,数据就损坏了,错上加错。如下图:

例如:

 

  • 测试

拿到一份数据可以用参考资料中Python来测试这个数据的编码格式,如果显示 的是“0,0x0”,在编码表中没有找到对应的编码格式,则说明这份数据在dbf文件的首行没有写入文件的编码格式。

arcgis软件会自动写上,但是有的gis厂商不会写上,由于dbf和shp数据都是开源的,其它gis厂商,也支持生成shp数据,但是并不是所有的gis厂商都会在dbf中写入文件编码类型。

(1)测试一

10.6的shp数据——拷贝到——>10.2中,加载能够显示,没有出现乱码情况

文件编码写在了cpg文件中

 

(2)测试二

10.2的shp文件——拷贝到——>10.6中,加载能够显示,没有出现乱码情况

文件编码写在了dbf文件的文件头

结论:不管是10.2的936文件编码,还是10.6的utf-8编码,只要给数据以正确的编码都能在不同的arcgis版本中加载显示而且不出现乱码情况;

如果将10.2的shp数据,在10.6中给它在创建的cpg文件中指定成了utf-8编码不会出现乱码情况;

——>因为10.2生成的shp文件在dbf中已经在文件头给它指定了正确的编码格式,哪怕在cpg中指定了错误的文件编码格式也不会报错,因为先读dbf头文件。

10.6的shp文件在10.2的软件中给它在创建的cpg文件中指定成了936编码会出现乱码情况。——>因为在cpg中指定了错误的文件编码格式。

 

 

  • 参考资料

  • 测试数据

链接:密码:ecqt

链接: 密码:it0k

 

 

 

你可能感兴趣的文章
Nginx配置如何一键生成
查看>>
Nginx配置实例-动静分离实例:搭建静态资源服务器
查看>>
Nginx配置实例-反向代理实例:根据访问的路径跳转到不同端口的服务中
查看>>
Nginx配置实例-负载均衡实例:平均访问多台服务器
查看>>
Nginx配置文件nginx.conf中文详解(总结)
查看>>
Nginx配置自带的stub状态实现活动监控指标
查看>>
nginx配置详解、端口重定向和504
查看>>
Nginx配置负载均衡到后台网关集群
查看>>
Nginx配置限流,技能拉满!
查看>>
Nginx面试三连问:Nginx如何工作?负载均衡策略有哪些?如何限流?
查看>>
Nginx:NginxConfig可视化配置工具安装
查看>>
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>