一套能帮你做好每一个设计项目前期分析的工具合集指南。
长期更新,且期待交流来共同完善这篇内容。
城乡规划专业更常用的是空间分析、地理分析。但其实,在当今网络语境下产生的大量文本信息,也能对规划策略、规划侧重点进行有效的指导。而且,网络评价通常切实反映了人们在这个场所的感受、体验,规划纳入网络评价的分析进行指导,也是公众参与的一种体现形式。
但是,对于城乡规划专业的学生来说,通常数理基础和编程能力都较为薄弱,相较于分词、语义关联这些自然语言处理技术,对于规划实践来说,更重要的是分析应用的结果,所以,这里推荐一个现成的好用的文本分析工具KH coder,供尚且未能掌握程序实现文本分析的人先用着,然后再慢慢学……
KH Coder是一款开发自日本的免费软件,适用于多语种的文本分析,如中文、荷兰语、英语、法语、德语、意大利语、日语、韩语、葡萄牙语、俄语和西班牙语等。有强大的语义网络、主题关联的可视化功能,也能连接R实现一定的自定义开发功能。
KH coder的缺点是中文分词较差,不符合中文常用的一些语言习惯。这方面可以用武汉大学沈阳教授团队开发的文本分析工具ROST CM6代替,或者是一些可以实现中文分词功能的在线网站代替,比如【微词云】https://www.weiciyun.com/。但在语义网络可视化方面,KH coder要强大于后两者,而且,ta是免费的!
在进行文本分析之前,我们首先要获得相应的文本数据,国内常用的景点打卡社交媒体有微博和小红书。获取研究地点/研究范围的社交媒体文本数据,方法有两种。
第一种是爬取带有打卡点经纬度坐标的数据,这种办法获取的数据质量比较高,但难度也较大,只能写程序爬取(像小红书还有反爬措施,解码非常复杂),反正我是不会的,不过我之前在小红书上看到有一位大神分享微博打卡点数据http://xhslink.com/vgWIBu,所以我用ta爬取的数据来分析过。这种数据除了能进行内容的文本分析外,还能进行打卡点位的密度分析,打卡点和打卡内容的时空分析等等。所以这种数据真的非常好!推荐大家都去学爬取此类数据的技术,我也该去学。
第二种是在社交媒体平台上通过关键词搜索相关的内容。这种数据稍微好获取一点,可以用现有的采集器采集,比如八爪鱼采集器,开会员后可以实现微博和小红书关键词搜索采集功能。但这种办法无法获得打卡点的坐标,也就是不带有地理信息,只能进行单纯的文本分析和图像分析。另外,后羿采集器的结构化设计也很不错,但ta能采集的平台更少,ta可以免费采集比如知乎平台的文本,但对于城乡规划的分析来说,可能不咋用得到知乎这种纯文字平台。
附上各种工具的下载链接和教程链接:
八爪鱼采集器(下载):https://www.bazhuayu.com/
后羿采集器(下载):https://www.houyicaiji.com/
ROST CM6(下载及教程):https://blog.csdn.net/m0_64336780/article/details/129248279
KH coder(下载及教程系列视频):哔哩哔哩教程视频1-10,下面的链接是1,看完后相关内容会推荐后面的。
https://www.bilibili.com/video/BV1Lp4y1474Y/?vd_source=86ecc33a26826c61c9e7cea23f0ffb53
下面通过一个具体实例来介绍一下这款文本分析工具在城乡规划分析方面的赋能。
以长沙市文庙坪街区为例,这是一个待城市更新的历史街区,有一些打卡游玩的游客但不多,也有本土居民和小商铺,位于黄兴广场步行街旁,长郡中学小吃街也在里面。位置如下图。
先用八爪鱼采集器关键词搜索采集的功能,在微博和小红书搜索“文庙坪”,获取相应文本数据和其他信息,如下图所示。然后在ROST CM6中进行分词和词频分析、统计,用WPS的会员功能绘制词云图(也可以用一些在线图表工具绘制),如下。
然后在KH coder中自定义识别高频词(用ROST CM6词频分析的结果),这个功能视频教程中有介绍,分析高频词的语义网络,如下图。
接着我把高频词分成了几大主题的类别,分别是“街巷”、“历史遗存”、“文化”、“传统美食”、“网红美食”、“市井生活”等几类,在KH coder中用编码功能对每一条文本进行主题编码,然后再进行主题分析(这个功能视频教程中也有详细介绍)。
最后,我将自定义识别词更换成了“文庙坪”和长沙其他历史街区和景点,探寻文庙坪和其他景点的相关关系。
这是一个以长沙新消费为特色主题的历史街区转型更新分析案例,两百多条文本其实就已经涵盖了非常多的信息和关键要素能指导后续的更新策略。一方面,我想说明文本分析对指导规划的作用;另一方面,KH coder真的是一款非常好用且强大的文本分析工具!尤其是在语义网络可视化方面。此外,KH coder还有一个功能是我这个分析没有用到的,文档集群与贝叶斯自动分类,类似于无监督机器学习的文档聚类(也可以有监督,比如先扔一百多个样本进去学习,再根据这种分类特征去分一千个、一万个)。这款工具真的很强大,强推!
当下时髦的情绪分析也可以通过KH coder的主题编码功能实现,比如,我可以去获取长沙市所有绿地公园的社交平台网络评价,哪些词对应积极情绪、哪些词对应消极情绪,进而分析人们在哪个公园的心理感受较好,在哪个公园的心理感受不太好,以及哪个公园的哪些方面需要进行提升。跟我之前分享过的一篇文献阅读类似,https://www.zhihu.com/question/23924014/answer/2906234627?utm_campaign=&utm_medium=social&utm_oi=991624558360801280&utm_psn=1686488016275845120&utm_source=zhihu
下面我再展示一下找来的长沙市半年微博签到打卡的数据。跟上面通过关键词搜索获取的数据不一样的是,ta有地理信息,这里我简单在Arcgis里做了一个点密度分析,看打卡点分布的情况。此外,还可以结合文本、时间、位置做综合的时空分析,是一种分析潜力巨大的数据。
另外,社交平台的内容除了可以做文本分析以外,还可以做图像分析…但目前本人尚未掌握此项技术,如果日后掌握了再来更新……
·路网线密度分析
Arcgis里,ArcToolbox -【Spatial Analyst】-【密度分析】-【线密度分析】
分析参数里,填写分析像元和分析半径,这两个值会影响你的分析结果。
这种办法能清晰地看出路网密集和稀疏的分布,可视化很棒,但缺点是数值不够量化,如果用来做研究这种办法就不太行。
·创建渔网进行路网密度分析
Arcgis里,创建渔网,比如1km*1km 或者 100m*100m,这取决于你的分析精度。
然后将道路网和渔网相交,统计每个网格里的道路长度,就是道路密度,单位是km/km²。
这种方法的分析结果颗粒度没有线密度分析高,分布图没有那么好看,但优点是密度有具体数值的量化,适合做研究用。
结果如下图所示:
教程视频链接:
https://www.bilibili.com/video/BV1Gr4y1t7t6/?spm_id_from=333.337.search-card.all.click&vd_source=86ecc33a26826c61c9e7cea23f0ffb53
下面就创建渔网进行统计的这种方法多说一点:
(1)如果你有建筑数据,带有轮廓信息和高度(层数),可以统计渔网的容积率分布,如下图。(或者是统计地块的容积率,分析单元是地块而非网格。)
计算地块的容积率、建筑密度视频教程:https://www.bilibili.com/video/BV1HG4y167Qn/?spm_id_from=333.337.search-card.all.click&vd_source=86ecc33a26826c61c9e7cea23f0ffb53
(2)可以利用poi数据计算地块或者网格的混合土地利用(mixed land use)。
·道路车行可达性
先解释一下可达性,可达性和成本、阻抗有关。道路可达性中,成本可以理解为距离,阻抗可以理解为速度,那么时间就代表了可达性,需要的时间越短,可达性就越高。
车行可达性的视频教程:https://www.bilibili.com/video/BV1Jr4y147Rz/?spm_id_from=333.337.search-card.all.click
用到的功能是网络数据集的OD成本矩阵分析。
强调一下,这种办法无法分析带有过多道路断点的数据(意思是要么你分析范围小一点,要么只分析主要道路),因为ta要计算每一个道路节点与其他所有节点的距离,如果是几百个道路节点还可以,如果是几千个可能会由于数据量过大 Arcgis求解不出来。
分析结果如下图所示:
·道路步行可达性
方法和车行可达性一样,区别是人行走每一条道路的速度都是一样的,不会因为道路等级不同导致速度不同,所以不用赋人行速度,直接用距离代表可达性就可以,当然也可以除以统一的步行速度用时间表示步行可达性。
结果如下图所示:
这张是用距离(m)表示的。
这张是用时间(min)表示的。(只是图例里单位不一样)
分析人步行500m,1000m,1500m能走到公共交通站点的覆蓋范围。
用到的功能是,网络数据集 的 服务区分析。
视频教程链接:https://www.bilibili.com/video/BV1ig411f7su/?spm_id_from=333.337.search-card.all.click&vd_source=86ecc33a26826c61c9e7cea23f0ffb53
这个教程是公园绿地可达性,方法一样的,把点数据换成公交站点,不用赋道路速度,直接用距离分析可达性即可。
结果如下图所示。
在Arcgis里运用【影像分类】工具,将卫星图像进行类型划分。推荐使用有监督分类,比如最大似然法。
视频教程链接:https://www.bilibili.com/video/BV1F7411J7SM/?spm_id_from=333.337.search-card.all.click&vd_source=86ecc33a26826c61c9e7cea23f0ffb53
结果如下图,
也可以只识别绿地,如下图。随心所欲识别自己想要识别的土地覆蓋类型,都可以。
然后你可以基于识别出来的绿地栅格,算这个地块的绿色面积占比(近似于绿地率)。
把识别出来的绿地栅格文件转换成面要素文件,再用【融合】工具融合一下绿地面要素(把邻近挨着的若干个小绿地融合成一个大绿地,多个面变成一个面)。
然后在属性表里添加字段“面积”,采用[计算几何]功能计算绿地面积,选择(前10个 或者 前20个,50个,看你的分析需求;或者是面积大于多少的绿地,用[按属性选择])作为主要的绿地公园,导出所选要素。
将主要绿地公园的面要素文件转换成点要素文件,添加道路,就可以分析绿地可达性了。
视频教程链接:
https://www.bilibili.com/video/BV1ig411f7su/?spm_id_from=333.337.search-card.all.click&vd_source=86ecc33a26826c61c9e7cea23f0ffb53
结果如下图:
本文的空间句法分析采用Depthmap软件。Arcgis安装一个插件sDNA也可以进行空间句法的分析。但我只用过Depthmap,所以介绍ta。
Depthmap下载官网:https://www.spacesyntax.net/software/
道路的拓扑深度、整合度、选择度分析,结果如下图。
(据说分析结果能导出表格,扔进GIS属性表里,但我没有试过,感觉比较麻烦,cad和GIS的对接总是很麻烦。)
视频教程链接:
https://www.bilibili.com/video/BV1WV411n7bU/?spm_id_from=333.337.search-card.all.click&vd_source=86ecc33a26826c61c9e7cea23f0ffb53
https://www.bilibili.com/video/BV1WV411n7bU/?spm_id_from=333.337.search-card.all.click&vd_source=86ecc33a26826c61c9e7cea23f0ffb53
视频教程链接:
https://www.bilibili.com/video/BV1zP4y1y7ks/?spm_id_from=333.337.search-card.all.click&vd_source=86ecc33a26826c61c9e7cea23f0ffb53
与教程不同的是,ta用来分析室内空间,我用来分析地块的公共空间。结果如下图。
上一个视频教程里后半部分就是这个。
就是把poi分类,在Arcgis里,ArcToolbox -【Spatial Analyst】-【密度分析】-【点密度分析】就可以。结果如下图。
如果有poi的多年份数据,可以进行时间纵向的比较和横向的结构分析。就像上述使用多年份卫星影像识别分析绿地一样。
注意,分析的参数设置 和 颜色显示系统的分级数值要一样,这样才能比较。
以居住小区为中心建立缓冲区(如300m,500m,1000m),统计各类设施的poi点(如教育、医疗、文化等)落在相应缓冲区的数量,从而生成居住小区的设施数量属性表,从而检查哪些小区在相应范围内没有幼儿园、小学、中学、医院等设施覆蓋。
本文所有的分析图,版权归作者所有。
这篇教程部分写得不够保姆级,除了附上视频教程链接的部分。如果是不会用Arcgis,建议先学习牛强老师的《城乡规划GIS技术应用指南 GIS方法与经典分析》。此外,Arcgis中的栅格叠加分析本文并没有提到,可以用来做国土空间双评价、土地适宜性分析、XX的选址等等,栅格叠加分析方法参考牛强老师的《城乡规划GIS技术应用指南 国土空间规划编制和双评价》。
总结:GIS是一个你需要多用才用得熟的工具。
我确实没有充足的时间精力把教程写得很保姆级,只能先这样子分享。
有疑惑的地方可以在评论区留言,我有空会回复。
1.最简单的懒人获取办法,就是通过淘宝商家,花钱,几十块钱可以获取一个城市各种各样的数据,比如店铺【一点儿技能数据库】。(我不是打广告,只是本人在这家店铺购买过数次)
2.如果你有基础数据包以外的数据需求,或者是做研究需要写明数据来源,那么可以通过一些公开的数据网站进行获取,此项看我的另一篇知乎。链接:https://zhuanlan.zhihu.com/p/656740679?utm_campaign=&utm_medium=social&utm_oi=991624558360801280&utm_psn=1686707901371260928&utm_source=zhihu
3.接取一些服务商的API,如百度地图、高德地图等。爬取大众点评、小红书、微博等平台的数据。此项需要一定的程序基础。我不会,别问我,我也想学。
(如果有新的分析方法工具,再来补充…待学习……)
(一些废话:今天当我思考我要走到哪里去的时候,我发现,在学习的这条道路上,除了我个人的学习,分享应该是非常重要的一部分。我会尽己所能分享信息、渠道、方法、知识,同时也借助这个平台学习更多。下一次分享应该是在国庆假期了,虽然我还没有想好可以分享什么。今天应该还有另外一篇,是关于公开数据获取的网站合集。)
我來瞭我來瞭,我帶著萬人血書求的高效去痱子方法來瞭!!最近門診接待瞭好多過敏娃,不是臉上有痱子,就是胳膊和大腿上密密...
一、我為什麼買壁掛爐因為最近我們這邊在裝燃氣管道,而且我們這邊也沒有集中供暖,之間都是傢裡燒爐子取暖,後來他們裝天然...