当你的手速跑不过一句话——GIS人正在经历一场静默的身份消亡
一句话杀死了一个岗位
五一前,整理老硬盘,我翻出来当年写的Python脚本——调ArcPy做缓冲区分析、叠加POI、输出热力图——遥想那个“落后的时代”,为了写这些脚本,学习 Python2.7,还要先用 modelbuilder 跑一跑,折腾了好几天。
放假的时候,儿子随便用了点 kimi 的 token,说了几句话,比我那个脚本还要复杂的多的一段处理流程,十分钟就复现并优化了。他甚至不知道EPSG:4326和 3857 的区别在哪儿。
我没有什么情绪。我想说的是:"几乎所有的软件工程师在今天突然不知道自己这些年练的到底是什么了。"
这不是一个关于效率的故事。这是一个关于身份坍塌的故事。当一个人和他赖以安身立命的技能之间的关系,从"我驾驭它"变成"它不再需要我驾驭"——这种失重感,比裁员通知更致命。
上个月,Karpathy在红杉资本的年度分享里,用一个冷静的技术框架解释了这件事的底层逻辑。我翻出来听了听 Karpathy 的视频。他没有说出口的是:这个框架正在重新定义一整个职业群体和他们与工具之间的关系。
可验证性:一把把人劈成两半的刀
Karpathy的核心论点极其简洁:AI沿"可验证性"这条线进化。能被自动判定对错的能力飞速提升,不能被判定的原地踏步。
代码能编译就是对,不能就是错——所以AI写代码像神。地图好不好看?分析结果有没有"意义"?没有编译器能告诉你——所以AI画地图像鬼。
但等等。这个框架套到GIS工作流上,劈出来的不是两类"任务",而是两类人。
一类人的日常是:坐标转换、投影校正、批量裁剪、脚本调参、跑模型出精度报告。每一步都有标准答案。每一步都可以被一个奖励函数捕获。每一步都正在被AI以月为单位蚕食。
另一类人的日常是:跟规划局的人吵这条红线该不该往东挪五十米,跟甲方解释为什么他要的"交通热力图"其实解决不了他的问题,在三个互相矛盾的数据源之间做出一个"说不清对错但最合理"的判断。
第一类人和工具的关系是操作者与被操作物。这种关系正在被取消——不是工具升级了,而是工具不再需要操作者了。
第二类人和工具的关系是导演与道具。道具可以换,导演不能换。因为导演决定的是"拍什么"和"为什么拍",而不是"怎么按快门"。
你和你的GIS技能之间,是操作者关系还是导演关系? 这个问题的答案,决定了你在这场静默洗牌中站在哪一侧。
"苦涩教训"的真正苦涩之处
Karpathy反复提到的"苦涩教训"(Bitter Lesson)来自强化学习之父Rich Sutton:所有基于人类巧妙规则的方法,最终都会被暴力计算+端到端学习碾压。
特斯拉的自动驾驶是活教材。早期版本:神经网络识别车道线,然后人工规则决定转向角度。后期版本:端到端,摄像头输入直接到方向盘输出。效果飙升,人工规则全部废弃。
GIS行业今天还停留在前一个阶段。用深度学习提取建筑轮廓,然后用规则引擎做拓扑修正。用神经网络分类遥感影像,然后用人工设定的阈值过滤噪声。
所有人都以为这些"后处理规则"是专业经验的结晶,是人类智慧不可替代的部分。
但苦涩教训告诉你:不是的。你精心设计的规则只是计算力暂时不够的权宜之计。 一旦模型足够大、数据足够多,它会连你的规则带你一起跳过。
这里真正苦涩的不是技术判断,而是心理事实:你以为你在积累的"经验",可能只是一堆即将被废弃的patch。你和"经验"之间的关系,从"我的护城河"正在变成"我的沉没成本"。
那些在ArcGIS里积累了十几年的快捷键肌肉记忆、对各种报错的本能反应、对工具链每一步的精确把控——这些东西曾经定义了"资深"。现在它们定义的是一种特定的脆弱。
问题定义者:唯一不会被验证掉的角色
所有人都在说"要做AI不能做的事"。但这句话太空了。具体做什么?
Karpathy的框架给出了一个精确的方向:做那些连"什么算对"都无法定义的事。
一个城市选址分析。AI可以跑通所有算法:交通可达性、人口密度、地价模型、竞争分析。但谁来决定这些因子的权重?谁来判断"这个地方居民三年后的消费能力"这种根本没有数据支撑的变量要不要纳入?谁来在甲方说"我就是觉得这个位置不对"的时候,听懂他没说出口的政治考量?
这些不是"更高级的技能"。这些是完全不同性质的能力。 它们不在同一条进化树上。你不是通过"把GIS学得更深"来获得它们的。你是通过理解业务、理解人、理解决策逻辑来获得它们的。
Karpathy用了一个词:agentic engineering。不是你去操作工具,而是你去编排一群AI agent完成任务。你的工作从"执行分析"变成"定义问题+验证结果是否有意义"。
"有意义"——这三个字就是人类最后的阵地。因为"有意义"这件事本身不可验证。它取决于语境、取决于谁在问、取决于这个答案将被用于什么决策。没有任何奖励函数能捕获"意义"。
至少现在还不能。
窗口正在关闭
有一个很多人不愿意面对的事实:Karpathy并没有说"不可验证领域永远安全"。他说的是"几乎所有领域最终都能实现某种程度的可验证"。
品味可以被学习。情境判断可以被数据化。甚至"意义"这种东西,当训练数据足够多的时候,模型也许能模拟出足以乱真的版本。
所以这不是一个"找到安全区然后躺平"的故事。这是一个窗口期的故事。
窗口期里你要做的不是防守,而是利用AI还不能做的事来建立只有你能建立的东西:对特定领域的深度理解网络、对特定客户决策逻辑的熟悉、对特定城市空间肌理的身体性认知。
这些东西不在简历上,不在证书上,不在你会操作多少种软件的技能列表上。它们在你和真实世界的关系里。
放假期间,我盯着天花板,傻躺,突然想通了一件事:我那些年积攒的最值钱的不是Python脚本,而是知道用哪些脚本在哪些客户面前演示就有好的售前效果。 这种知识没有任何AI能从训练数据里学到。但它只有在主动把自己从"工具操作者"的身份里拔出来之后,才能被看见。
你可以把思考外包给AI。但你不能把"知道该思考什么"外包给AI。
这两件事之间的距离,就是你还剩下的全部时间。