我(不)想让 AI 帮我做
标题之所以没有使用 LLM 这个在如今大多数情况下更准确的词,是因为我想讨论更宽泛的技术。帮人做事的不只是大语言模型,对于个别人来说,还有可能是文生图模型、图像视觉模型等等。所以我使用了 AI 这个词。
如果你读过本博客其他有关 AI 的文章,你会发现我大部分时候都没什么好话说。我为什么不喜欢这门不少人都相信即将翻天覆地地改变世界的技术呢?我就从我最熟悉的领域说起吧。编程,也正是如今受 LLM 影响最大的技能之一,是我从小学五年级就开始做的事情。我喜欢编程,一开始是因为我喜欢创造的感觉,我还记得我写第一个易语言程序的时候(很不幸,这的确是我的启蒙编程语言),我把 UI 拼成自己喜欢的样子时有多高兴。后来,我意识到自己代码能力太弱,那时的我连分支和循环结构都不知道是什么。
我仍然喜欢创造,但我很快迷上了另一项可以称作是智识锻炼的活动——写代码本身。我喜欢用代码让机器做我想让它做的事,我喜欢思考编程语言和自然语言的关系,我总是在思考什么样的代码是好的代码。可如今,当我放下 Bob 大叔写的《代码整洁之道》时,我叹息。函数体里的代码应该位于同一抽象层上,函数应该简短,一个文件的长度不应该超过一个屏幕的大小…… 这些东西还有人在乎吗?
我从今年开始学 Lisp,准确来说是 Clojure 和最近初探索的 Guile Scheme。在感受函数式编程的震撼之时,我也被另一种焦虑缠绕着:没人在乎你的代码漂不漂亮,没人在乎架构是否合理,没人在乎你用的什么编程语言,人们只想让程序运行起来,把事情办好,而且越快越好。当然,有人会像要求设计师必须用 PhotoShop(否则显得不专业)一样要求程序员必须用丑陋的 Java 和 Spring Boot 做开发,但如果可以,他们真的想要完全把代码消除掉,甚至 把软件工程师也弄走 。讽刺的是,他们既无法理解写代码本身的乐趣,又觉得写程序就只是写代码,觉得软件工程里的工程二字没有实义。
我逐渐把握了我对生成式人工智能的矛盾态度,其实一点也不矛盾:和所有技术进步一样,我想让技术解放我,让我不必做我不想做的事情;但我不想让技术限制我,让我没法享受我想做的事情。
我逐渐意识到,编程智能体(Coding Agents)之所以发展迅猛,很大程度上是因为世界上到处都是不喜欢写代码的程序员和觉得创造软件就是写代码的普通人。当然,它的用户不乏一些乐于接受新技术的工程师,但这些工程师多半也还是会自己写代码,只用智能体完成部分工作。
叛徒的自白
如果你是一名讨厌 AI 的画师,一名对 AI 编程感到焦虑或者厌恶的程序员,一名对 LLM 颇有微词的文字工作者,很不幸,我可能是个叛徒。
过去的一两个月里我一直在用 OpenCode 和 DeepSeek 的便宜 API 做项目,尽管每天最多只会花四个小时在 AI 编程上(再多我觉得我的大脑真的要承受不了了),但我的确给 AI 公司付了不少钱,一定程度上促进了市场需求的增长。
不过还请放心,我发布在 Codeberg 上的项目大部分都是我手写的。我从未想过 Vibe Code 一个爆款产品或开源项目,我仅仅是用它来应付学校的项目。我想如果我去实习或正式谋得一个职位,就算上司不要求(尽管现在不少岗位都希望求职者有 AI 编程经验),我也会用它来写工作上的代码,审查后对交付的结果负责。
这是好事吗?我把不想写的代码外包给 LLM,想写的代码留给自己写,听起来两全其美不是吗?
事实并非如此。
在我开始高强度使用 AI 编程之后,我手写代码的时间明显变少了,我的 Wakapi 统计数据可以证明——过去七天,我只有不到七个小时在写代码,除了有三个小时在写 Clojure,有一个小时在写 YAML 调试 Woodpecker CI 工作流,剩下的时间基本上都是在写配置文件,
此外,更明显的副作用是,我在写 Clojure 代码的那三个小时,脑子变得迟钝,常常面对简单的需求感到无从下手。我目前正在进行的学校项目,我选择了 Go 语言作为后端,这门 初识时让我感到相见恨晚 的语言,在我某天想要自己动手开发时,也让我觉得令人恐怖地陌生。本来我非常乐意解决新问题,可现在面对越来越多的我不知道怎么写的代码,比起思考和寻找他人的解决方案,我的下意识反应竟然变成了……
*按下 ⌘D1
*opencode
*“请你帮我……”
老虎机、偏误放大器和消费载体
LLM 在很多层面都和短视频十分相似。首先,它们都有类似老虎机的交互逻辑,再往下一刷就能看到更有趣、更新鲜、更吸引人的内容,再写一条提示词、再听一句「You’re absolutely right!」,问题似乎就会迎刃而解。尽管总是事与愿违,但我们似乎不愿意停下,就像无法进行更高级的反思的动物一样。如果给老鼠一个按钮,按下之后它就会经历性高潮,那么它就会一直按这个按钮,直到死亡。
在哲学意义上,人与动物的区别并不是会使用工具,而是能够进行反思。过度地刺激动物性的部分,貌似会让人短暂地失去这个能力。
除了 成瘾性 ,LLM 对大脑的影响还有很多。短视频的恶性影响在诞生十年后才得到广泛关注,而即便是这样它的热度也只增不减,谁知道 LLM 会对大众造成什么样的影响?
我有实感的另一个 LLM 对认知的影响是,它加剧了确认偏误(confirmation bias)的发生。什么是确认偏误?即以「证明自己的观点」而非「了解事实」为目的收集和选择性忽略信息,认知过程从证实变成了「确认自己是对的」,这往往会造成错误。
就在最近,我经历了让我感到非常羞耻的事件。我在联邦宇宙上用英文和别人讨论 Git 新特性 git history reword,其中我们谈到了给 commit 签名的问题,对方好奇 reword 会不会影响签名。我记得我能够给 SSH Key 签名的 commit 执行 reword,但 GPG Key 签名的却不行。
这是完全错误的,我被 LazyGit 的快捷键误导了。LG 有 reword 快捷键,但这在 git history reword 发布之前就有了,它实际上使用的是 git rebase -i。由于 LG 的限制,它不能和 GPG 一起使用 git rebase -i,所以就有了 GPG 签名的 commit 不能 reword(实际上是 rebase)但 SSH Key 签名的 commit 可以的情况。当时的我没有搞清楚,于是认定这是事实,所以开始思考:为什么 GPG 签名的 commit 可以 reword,但 SSH Key 不行呢?两者是不是在原理上有所差异,比如 SSH Key 仅仅对 commit 内容签名,而 GPG 还签名 commit 的 parent hash,所以历史的变更不会影响 SSH 签名?
你发现了吗?这个问题的前提就是有错的。
为了快速得到答案,继续对话,我向 Kimi 讨教。我不熟悉密码学,相信了 Kimi 的幻觉。它说:SSH Key 是对 git commit 的内容进行签名的,只要内容没变就不影响;而 GPG Key 签名对 Git 历史更加严格,所以 rebase 等操作会破坏 GPG 签名,而不会破坏 SSH 签名。
听起来很有道理,逻辑是自洽的,但这完全是胡扯。
当我意识到自己犯的错误时,对话已经进行了几个来回了,那时还有一位对密码学颇有研究的用户参与了讨论,我好担心被他发现我在胡说八道!我飞快地跑步找到一个地方坐下,掏出电脑查阅资料求证。我翻了各种相关的文章和文章,都没有证据表明 Git 会以不同的方式处理 commit 签名。根据 Git man 页面 里有关 Git 签名格式的描述:
In every case, the command which is about to create an object or transaction determines a payload from that, calls an external program to obtain a detached signature for the payload (gpg -bsa in the case of PGP signatures), and embeds the signature into the object or transaction.
简单来说,在需要签名的时候,要创建 Git 对象的命令会决定一个载荷(payload),调用外部程序来获取载荷的签名,如果是 GPG 签名,就会调用 gpg -bsa;如果是 SSH Key 签名,就会调用 SSH 密钥相关的外部程序。这里没有说载荷(payload)会因为调用的程序不同而发生改变。也就是说 Kimi 所说的、我相信的、另一个比我有经验的工程师听过之后还觉得很有趣的「SSH 密钥只签名 commit 内容而不包含 parent hash」的说法,根本不存在。
接下来就是狼狈地道歉、编辑、撤回和澄清……
让我来反思一下这段经历:首先,我提出了一个前提就有错的问题,这个问题一开始就不存在;然后,我想出了一个理论来解释这个不存在的问题;再然后,我试图「确认」这个理论,只不过我选错了工具,LLM 通过幻觉「确认」了我的理论,并附加了许多令人信服的解释;最后,我作为卑贱的 LLM 人肉代理,传递了这个彻头彻尾的错误理论。
如果我「确认」的途径是相关的技术文档,或者一位对 Git 了如指掌的专家,就不会出现这个问题。我的「确认」会失效,我会被事实一锤子敲醒。
LLM 是个冰冷的确认偏误制造机。
我为什么用 LLM?是因为我没有能力吗?并非如此,为了写一个 Webmention 接收器和一篇
指南
,我把
规范文档
读了一遍,把 webmention.io 的文档和源代码都翻来看了,连相关的
microformats
的 Wiki 也读了好几页。实际上,我写不少文章的时候都会查阅大量资料,浏览器会同时打开十几个标签页,开两三个标签页分组。而且,我很享受抽丝剥茧的过程。
既然我能做也喜欢做,我为什么要用不可靠的 LLM 做这种事情?这似乎不再是技术问题,而是心理学问题。
惰性和急躁——这是我目前的解释。某种程度上,高强度使用生成式人工智能还加剧了这两种特质,造成了恶性循环。
这两种特质不是刻在性格里的东西,而是短期内被影响的。短视频这一媒体形式已经被基本证实会影响分析能力2和前瞻性记忆3,与内容无关,哪怕是在摄入大量看起来很有用的知识,也会让人变笨、变得更难集中注意力,而且短期就能造成影响(研究中,刷十分钟短视频再进行认知测试,成绩就会有明显地下降)。所以,使用某种技术是有可能造成认知能力下降的,而且这种下降可能与使用技术的目的无关,只和形式与技术本身有关。技术本身就是有倾向的,Neil Postman 的《 娱乐至死 》预见了这一点。
尽管没有研究证实,但我们凭什么相信 LLM 以及其他的 AI 技术不具有这种天然的降智特性呢?而且它更狡猾,它让人以为自己在思考,因为有半主动的交互过程发生(不过有多少人在和 LLM 对话时仅仅只是在回应它抛出的「要不要我帮你……?」)。只能等待有相关的学术研究出现了。
惰性源自于对痛苦耐受程度的降低,未知是痛苦的,所以人不得不思考、探索、求助来消除未知,如今这个痛苦可以被 LLM 快速地消除,所以人们不再思考。对 LLM 的依赖可能并非源自于求知欲,而是源自与对情绪的逃避。我在《 不做信息的消费者,从写周刊开始 》中是这样定义和批评消费的。
消费是短见的应付当下情绪的行为,这些情绪往往会带来某种不适,而人们用触手可及的消费行为缓解这种不适。比如,人们通过发明短视频消解了「无聊」这一不适,通过进出商场或使用网购软件消除了「空虚」这一不适,甚至,在我看来,美国人滥用止痛药的行为也是一种消费,用于消除疼痛带来的不适。
然而,无聊、空虚和疼痛,任何形式的不适,都是一种「负反馈」,用于修正行为,提醒大脑:下次要更好地安排时间和任务,这样就不会感到无事可做;我必须直面自己的情感需求,找到空虚的源头,才能避免这种深不见底的痛苦;我以后可不能这么冒失了,必须保养好自己的身体,我太怕疼了。拒绝将自己暴露在有益的负反馈下就是在任由自己变蠢。
要说 LLM 真的帮普通人做成了什么,那就是创造了以前所未有的速度消费信息的媒介。知识本身真的重要吗?事实真的重要吗?似乎只要思绪中的未知消失就好。
Ursula K. Le Guin 在她的小说《 黑暗的左手 》里这样写道:
知道错误问题的答案是毫无用处的。
这句话出自书中隐者村的一位老者,他们的聚落举行占卜仪式,就是为了向世人展示这个道理。我写过一篇文章,论述 为什么请教 LLM 和占卜算命极其相似 。
Head in the Cloud
我在大量依赖编程智能体之前,其实有阅读 软件架构相关的书 ,而我的专业本身也是软件工程,不同于计算机科学等其他相关专业,我还学习了不少有关软件设计模式、需求工程和软件项目管理的知识,也因此我不至于写出漏洞百出,让人无法理解的 Slopware4,而且,我在使用智能体的时候,有尽力清晰地描述需求、做出深思熟虑的系统设计决策、做架构决策、在恰当的时机停下来进行重构,我在费力地思考。这样的过程并不是被动的,那 LLM 的负面影响会被减轻吗?
可以确定的是,我的确会在几个小时内一行代码都没写的情况下感到劳累和…… 某种程度的满足感。这种满足感并不是发自内心的「我亲手做成了某件事」带来的,而是「我好像真的创造了某个东西」。如果是我自己写代码,我会同时感受到两种满足。
劳累的原因一方面是消耗了大量的认知资源,另一方面,使用智能体编程本质上是把软件开发的抽象层提升到了需求描述、系统设计和架构设计的层面,而不再关心底层的实现思路。这好像是令人激动的发现,因为这意味着软件开发过程中需求开发和系统设计占了更多的比重,而写代码则不那么重要了,而且前者是一定要交给人来做的,需求开发在获取阶段就要和客户紧密沟通,系统设计则需要有经验的工程师做出审慎的决策,还有测试和编写文档也很重要。如果从写代码中解放出来,人们似乎有更多的精力关注更重要的事情。
代码本身就不是软件开发的全部,这是肯定的。代码没那么重要?真的吗?
代码不仅是软件行为产生的地方,也是软件架构的体现。早在 LLM 编程之前,不严肃对待架构的开发者就吃了很多苦头。由于源代码之间的依赖关系不合理,耦合紧密,导致需求变更时做出更改非常困难。开发的前期代码飞速增长,中后期则举步维艰。尽管用自然语言编程能够在宏观上把控架构(前提是使用者真的有设计灵活的架构的能力),但难以精细到代码之间的依赖关系,毕竟 AI 编程使用者不会亲自管理依赖。如果完全不读代码,致命的耦合就会悄无声息地发生。
代码也是安全漏洞发生的地方,这是无法通过系统设计消除的。如果不关注代码,就不知道机器具体做了什么,在哪一步会出问题。LLM 产出有安全漏洞的代码并不罕见,而且有些漏洞并不出现在一段代码中,而是出现在组件之间。
写代码也是开发中最令人愉悦的过程。架构设计固然重要,但做高层决策十分消耗精力,而且没有实感。需求开发、系统设计等过程,都需要和很多人协商沟通,不断地讨论和修订文档,而写代码是程序员真正意义上独处的时刻。如果让这个独处时间,也变成和另一个实体的交互过程,至少对我来说,会比自己写代码更累。
让我感到最讨厌的,是某些人抱有的玄学心态。
我某天做家务的时候在听一期讲 AI 的播客,他们没有一个人是相关领域的专家,其中有个男人讲的话非常讨厌,语气和内容都是,我听到这句话之后就立刻关掉了播客。他们本来在讨论和 ChatGPT 聊天时遇到的问题,结果这个男的没头没脑地冒出来一句:「你给 ChatGPT 充钱了吗?」对方回答没有,男的就换了个腔调说:「哎!难——怪——啊——」。
不少人把具体的工作变成了与聊天机器人交互的过程,这就诞生了不少毫无根据或者被夸大的玄学,比如提示词神话,比如「你给它开启专家模式」「你调整一下 LLM 的记忆」,比如订阅什么价位的方案,比如在没有数据支撑的情况下根据自身局限的经验判断模型之间的优劣并十分笃定,以及任何类似于「必须要这样和 AI 聊天才能获得好的结果!」的说辞。
代码本身是确定的,是冰冷的,是无聊的,是可证伪的。如果我们在讨论代码层面的事情,那么我们非常容易相互理解,因为我们都清楚代码的执行路径、依赖关系、数据流等等,也就更容易讨论得到解决方案。倘若我们抛弃代码,去讨论模糊的自然语言,讨论怎么和智能体进行交互,那只会诞生出越来越多的玄学迷思,因为 LLM 本身就不是决定论(deterministic)5的。完全抛弃代码,全面使用 LLM 编程,会把技术问题变成模糊且不可控的儿戏。
如果你不太能理解,请类比:当人们讨论翻译的时候不再讨论新概念的译法,不再争论译文应该保留外国文化还是尽可能本土化,而是争论哪个模型做翻译更好、争论怎么写提示词能得到质量更高的翻译、鄙视那些不用付费模型做翻译的译者……
非决定论的技术
人们似乎都相信一个尚未被证实的假设上:AI 真的能代替人。
几乎所有人都在夸大这项技术的影响,实际上,就和所有计算机程序一样,没有输入就没有输出。银行有非常健壮的自动化软件系统,但仍然需要柜员和人工服务。不过比一般的软件系统更危险的是,大语言模型不是决定论的。
决定论原本是哲学词汇,认为一切都是注定会发生的,因为宇宙从一开始的状态是确定的,而物理规则也是确定的,那么从最初状态按照固定的规则运行下去的世界,任何一个时间点下的状态都是由最初状态和改变状态的规则决定的(这很像个迭代器)。谈到状态,就很容易联想到计算机系统了。状态就是计算机处理的数据,规则就是程序本身。对计算机来说,确定的输入得到确定的输出。
这并不适用于所有计算机程序,因为状态有可能影响规则的执行。程序的语句之间可能存在时序耦合(temperal coupling),即前面的语句在执行后改变了系统的状态,而这个状态使得后续语句的行为发生改变,导致偏离预期。如果说时序耦合还有办法解耦(比如使用美妙的函数式编程),那么近似黑箱的神经网络模型就几乎无法根据输入和输出进行调试了。对于大语言模型,确定的输入无法得到确定的输出。大语言模型是非决定论的。
这样可怕的软件,甚至没有办法编写测试用例来保证稳定性。幻觉已经是陈词滥调了。既然传统的软件系统都没能消除人工,凭什么相信更加不稳定的技术可以?
由于输出不可预测,为了保证可用性,就必须介入人工调控。因为计算机程序没有主体性,不能为它交付的工作成果负责。你不能问责机器,但你可以问责员工,所以人需要为 AI 提供输入,并为它的输出负责。
在维持算力成本的同时还需要支付人工成本,这么做真的值得吗?我不是在全盘否定 AI 技术的应用,AI 会留下来的,我也认为它能给一些行业的某些人带来积极影响,但所有人都立刻将 AI 用于生产,至少在成本上并不明智。关于成本,我会在下下小节谈到,接下来我们先聊聊另一个问题。
幕后的受害者
前文我讨论了我不想让 AI 帮我做事的心理原因,依赖 AI 技术可能造成的认知能力下降,将技术细节提升为高层决策带来的模糊性和不可预测性,以及大模型本身的非决定论特质。接下来我要讨论更棘手的问题——道德。
在 2026 年浏览万维网,除了能够发现更多设计现代化、功能更强大的网页应用之外,还能发现更多无法直接访问的小网站。
免费代码托管平台 NotABug.org 被迫停止 Web 访问,现在用户只能通过 SSH 访问已有的 Git 仓库,原因是:
Due to relentless AI scrapers notabug.org is currently down.
由于没完没了的 AI 爬虫,notabug.org 目前无法访问。We are attempting to come up with a solution to this problem.
我们正在试图找到问题的解决方案。
稍微大一点的网站,比如 Wikipedia,去年也深受其扰。他们在去年四月发布的 文章 中表示,昂贵的流量中有 65% 都来自机器人。
我平时是关闭 JavaScript 的,只对信任的网站打开,而不少网站的反爬虫策略利用了 JavaScript 和 Cookie(爬虫不执行 JS 代码,也不储存 Cookie),我也会被错误拦截。
访问 Debian 的包目录 ,会显示:
AI scrapers break the web, to use this page you’ll need JavaScript enabled.
AI 爬虫毁了 Web,要使用这个页面你需要启用 JavaScript。
大大小小的代码托管网站都使用了类似的反爬手段,比如 Codeberg ,我自己的 Forgejo 实例 也一样。这些平台本身是开放且尊重用户的,不需要使用 JavaScript 和 Cookies 也能正常访问,但 AI 爬虫的猖獗让他们无法正常提供服务,必须采取限制手段,否则要么服务器被打趴下,要么任由肮脏的机器人给自己留下昂贵的账单。
所以,这显然是个道德问题。科技公司是吸血鬼,他们利用开放的万维网内容训练 AI 模型,从画师在网站和社交媒体上发布的作品,再到各大代码托管平台上的开源代码。他们为了做出有竞争力的产品,不择手段,完全违反 robots.txt 协议6,不管小网站的死活,没有意识到自己行为实际上与 DoS 攻击无异。
使用 AI 绘图、编程、写文档、做任何事情,不都是在变相吸这些受害者的血吗?我们还没有开始讨论版权问题。
更现实的代价
让我们以企业的角度来思考问题,员工使用 AI 技术更快速地工作,让他们变蠢、变迟钝、变得上瘾看起来不道德,AI 技术本身让社区、非营利组织和小公司生不如死好像也很不道德,但道德和金钱比起来算什么呢?AI 好像能以更低的价格实现更快地增长,不是吗?
根据 Axios 发布的一篇 文章 ,互联网科技公司在 AI 上花的钱已经超过了员工的薪水。
运行大模型和如今主流的各种 AI 技术都不便宜。据从事学术研究的某位老师透露,我所在的学校能供学生使用的只有一块显卡,不足以支撑某个学生的研究方向,他不得不放弃,换个方向从头再来。如果在个人电脑上跑,只能以很低的效率运行参数较小的模型。那为什么这么多的科技公司提供免费的 AI 聊天机器人,以至于人们早就习惯使用 AI 了呢?我最不能理解的是那些使用大模型生成随机数以抽点学生的老师,你为什么要消耗这么多的计算资源,就为了得到 Excel 表格也能输出的结果?为什么人们觉得 AI 像是不要钱一样?
因为大科技公司花钱的方式就跟钱不值钱一样。
《 AI 泡沫如何破裂 》这篇文章从经济学和投资的角度预测了未来 AI 行业的发展,并不乐观。简而言之,大科技公司不需要在技术上胜利,他们只需要一直花钱,花的钱比竞争者更多就赢了。人们推测 Claude 方案的实际成本要比订阅费贵五倍(不过最近上调了),更别提大多数人其实不给 AI 模型付钱,免费使用消耗的算力也够多了。
钱从哪来呢?Google 这样的公司钱很多,玩得过所有人,而 Anthropic 和 OpenAI 这边就不容乐观了。Anthropic 在尝试 降本增收 ,而 OpenAI 不得不往 ChatGPT 里增加广告,因为他们的购物功能以及视频生成模型 Sora 全都没了,赚不到钱。他们极度依赖投资者的钱,而赚不到钱但增长迅猛的企业看起来比那些一直赔钱也没有增长的企业值得投资多了。
不过投资者的钱总会烧干的。作者还推测那些为 AI 建好的数据中心可能因为市场需求的下降而闲置(因为为了赚钱回血,产品的价格会升上;最基本的经济学原理之一是:价格上升会导致需求下降),导致我们可以以非常便宜的价格买到云服务器,而 GPU 的需求也会下降,英伟达就要遭殃了。
尽管这些都是推测,但可以确定的是,搞 AI 很费钱,而不是所有人都愿意支付高昂的价格。此外,由于 AI 公司提高模型价格,我们还看到 IT 公司的 AI 支出超过了人力成本,对使用 AI 的公司来说,AI 也不如人类有性价比。
当然,这些情况明天就可能有改变,毕竟现在 DeepSeek 的 API 价格是真的便宜,似乎也没有相关报道显示他们有遇到财政危机,兴许上述问题都会在不久之后被解决。兴许摩尔定律会复活,算力会突然变得更便宜,谁知道呢?
出路在哪?
你问我?我只是个什么都不懂的小屁孩儿。
让我来整理一下这篇已经变得有些奇形怪状的文章吧。
大模型极有可能是《娱乐至死》中所言的那类「有倾向的技术」,其对话的形式与短视频媒体一样具有降智属性——和老虎机一样的操作逻辑,让人成瘾;对比短视频推荐算法创造的信息茧房,大模型的幻觉、模糊性和信息筛选能力可能加剧确认偏误;由于在某种程度上快速地消除了无知给人带来的不适(消除的是不适,而非无知本身),大模型成为高速的信息消费载体。
在工作生产层面,大模型抬高了工作的抽象层,让人们不再接触具体的、确定的、无聊的、可证伪的工作,而是让所有工作都变成模糊的自然语言处理,技术、技能、技巧失去意义,被模糊和不可控的玄学取代。
由于生成式人工智能是非决定论的,并且作为软件无法被问责,于是在消耗算力资源的同时仍然要消耗人力资源来调控输入与输出,并对交付的结果负责。随着 AI 泡沫破裂,价格上升,算力成本也超过了人力成本,对企业来说并不划算。
更值得注意的是,AI 模型建立在不道德的基础上,科技公司用不遵守规范的网络爬虫攻击非营利组织、开源社区、绘画社区、小型企业以获取数据,而 AI 的使用者也被吸血鬼反哺着,付给 AI 公司的每一分钱都是市场需求仍在上涨的证据,是在鼓励这种不道德行为继续猖獗,没有一个人是无辜的。
呼…… 让我歇一歇,来关注我自己的感受。
现实是残酷的,尽管短视频对人有害已成共识,也有科学研究做背书,但人们依旧无法停止刷视频,金钱仍然会汇聚到视频行业中。去做短视频(或者和短视频一样有吸引力的长视频),就是能挣到钱。
同理,尽管各类 AI 技术的好坏还有待辩驳,但无论如何,它看起来都不会消失,它依旧是目前最受关注的领域。尽管行业可能会受到不少冲击,但我不觉得我们能回到 2021 年前的世界。所以,似乎仍然可以得出相似的结论:去做 AI,就是更有竞争力。
兴许最幸福的人不会像我这样思考这么多,他们会投身到这些赚钱的行业里,并且不觉得有任何问题。我想的太多,于是踌躇不前。
唔…… 我好像还在用 AI 编程来着。我该停下吗?
我自然不能在面试被问及「你有 AI 编程经验吗?」「你怎么看待 AI?」时把这篇文章的主要论点给面试官讲一遍,除非我想没饭吃,企业想要的当然是能够用 AI 为它们创造更多价值的人。可我总对撒谎和谄媚感到非常不适。
此外,用 AI 应付工作和学校项目实际上剥夺了我工作的成就感、价值感,这对本身就不喜欢工作的人来说可能无足轻重,但就像我在开头说的,我是个喜欢写代码的程序员。更何况,哪怕是耗时并不算多的 AI 编程,也像刷了一小会儿短视频一样影响了我的认知能力,影响了我手写代码时的状态。这是具有成瘾性的技术,自然有戒断反应。
我谈到我在用 OpenCode 开发学校的项目,但选题是我自己定的,需求和设计是我自己做的,技术栈是我自己选的。尽管多少抱着完成任务的心态,但我在开发过程中逐渐对这个「作品」产生了情感,我突然有了更多期待。它可以作为毕业设计,也可以是更长期开发的项目,我还有可能自己在日常的工作生活中使用它。
而当我翻看它的源代码时,我感到非常陌生。无论怎么辩驳,它的确很像是个 Slopware。我感到陌生、担忧、心虚和失望,只能为我在一开始设计了灵活的抽象接口而庆幸。或许我该做些 Vibe Code 清理工作了。
不过在这之后我该怎么办?我不知道,我只知道,我不想让任何技术、任何人,再夺走生活中为数不多的能让我感到快乐的事了。
推荐阅读
- AI as a Fascist Artifact (AI 是法西斯工具)
- Why Do They Want To Get Rid of Software Engineers? (为什么人们想除掉软件工程师?)
- How The AI Bubble Bursts (AI 泡沫如何破裂)
- Tech Companies Apparently Do Not Understand Why We Dislike AI (科技公司显然不理解我们为什么不喜欢 AI)
-
Ghostty 的分屏快捷键,分屏后打开新的终端窗口 ↩︎
-
参见: Swiping more, thinking less: Using TikTok hinders analytic thinking ↩︎
-
参见: Short-Form Videos Degrade Our Capacity to Retain Intentions: Effect of Context Switching On Prospective Memory ↩︎
-
AI 生成的废料被称作 Slop,而 Slopware 和 Slop 和 Software 的缩合词。 ↩︎
-
如果你不了解这个词的具体含义,我会在后文展开。 ↩︎
-
大部分网站都会提供
robots.txt文件,声明允许哪些爬虫,不允许哪些爬虫。AI 公司的爬虫根本不在乎。 ↩︎