Essay

技术塑形

shaped-by-tech

我们塑造工具,工具反过来塑造我们。

—— Marshall McLuhan

技术不只是工具,也是一种环境。

我们正站在一个历史性的交汇点:人工智能不再只是工具,而逐渐成为我们的“数字同事”、“虚拟分身”乃至“决策参谋”。它正在深刻地重构工作的本质、价值的定义,以及“人何以为人”的古老命题。

这个里我们展望和思辨那个正在发生的未来。我们关注技术带来的具体改变、个体困境与新的可能性。

用户头像
2026年1月28日

AI执政、执法会不会比人更有人情味,这是个问题。

因为AI可以很纯粹,人不能。

用户头像默认头像
2026年1月28日

clawdbot 把 AI 圈分成左派和右派:左派激进,愿意把权力交给 AI;右派谨慎,坚持把决定权握在自己手里。

用户头像默认头像
2026年1月27日

AI狂潮的尽头是什么?

说实话对这个问题,我没有任何头绪,只是心中不安、惶恐。

Alpha GO、chatgpt、deepseek、clawbot……这些厉害的产品相竞出世,开始挑战人类、打败人类,甚至被人类依赖。

下一站又是什么呢?

我第一次产生危机感是在看AlphaGO vs 李世石的纪录片过程中。这个轰动世界的新闻16年刚出现时,我并没有关注,机器打败了一个人,这有什么的?计算机比我们聪明,这也很正常。它记知识就像点save一样简单,而我们记知识比吃苦瓜还难受。我不知道在当时这意味着什么。

直到最近我看到这个纪录片,我才意识到:它不是打败了李世石,而是打败了全人类。

好可怕。

从那时起,人类可能就面临了智慧永远被机器比下去的未来。

嗯……

这个现实太过沉重了。

记得柯洁在对战AlphaGO失败后说:“十几年的努力失去了意义。”

以后我们会不会意识到:“几千年的努力失去了意义”?

用户头像默认头像
2026年1月25日

人的价值优先于效率,应成为这个时代产品的内核

不是效率不重要,效率非常重要,重要到所有的 AI 巨头都在优化这件事。这个过程中,我看到了一个清晰稳定的能力收敛过程。

过去产品逻辑是:场景 → 功能 → 产品 → 结果。比如场景是设计一张海报,功能需求是图像编辑 / 合成 / 设计等功能,于是有了 photoshop, fireworks 等产品。

现在,这些能力不再依附工具存在,成为了模型或 Agent 的能力。用户不再需要打开 Photoshop → 选工具 → 操作功能,而是告诉智能助手“我需要发布一张产品海报”,新的产品逻辑成了:Agent → 结果。

Agent 可以适配各种场景,于是产品的能力被收敛了,尤其是通用能力,如写作、总结、翻译、代码、设计、数据分析等等。 这些能力加上模型的推理能力,最后通用助手出现了,代表有 Manus、Claude CoWork.

我相信这类产品的形态会继续进化,同时越来越多的产品会向这个方向靠拢。我的疑问是:大量产品在一个无差异化的产品方向上, 谁会笑到最后?

大概率是几个巨头吧(成功卖给巨头也行),那其他人做这类产品的意义是什么?凑热闹吗?

产品价值的割裂

过去做产品,很少会有这种情况:人的工作效率得以提升,产出质量有了提高,但人的感觉却更糟。现在,不少的产品都有这个特质。看着精美但雷同的设计,既丰富又贫乏的文字,经管拿到了结果,但这里面没有成就感,有的只是对流量的渴望。

都在讲技术平权,技术一旦平权结果就是高密度的竞争。 大家开始拼选题能力、市场嗅觉、分发能力、成本控制能力...。 随着应用打造门槛越来越低,产品会越来越多,同时通用助手的火力覆盖越来越广,最后大家玩的就是一个残酷的概率游戏。

跟随人的价值

产品不一定非要主打 AI, 尽管这种叙事在今天不动听。但换个说法,如果你的产品还能讲一个不靠 AI 的故事,其实也是一种生命力的体现。

不要误会,AI 能力一定是要充分利用的,刻意排斥,然后去讲一个孤勇者的故事没有必要。但智能作为一种能力不应该是产品的唯一价值体现。

你看,Essay 作为一款没有AI 的产品,也呈现出了独特的生命力。

用户头像默认头像
2026年1月23日

Your App Subscription Is Now My Weekend Project 这篇文章提出了一个观点:功能单一型工具,如录屏、转写、Markdown 编辑、笔记、截图、任务管理等,以及低复杂度 SaaS,都可能会被个人的 vibe coding 产品替代掉——个人的很多应用,最后都会是可被即时生成的工具。

这里有一个点值得思考:如果需求这么容易被满足,为什么单一场景工具还层出不穷,竞争激烈。就拿笔记和任务清单应用来说, 请回想一下自己试过多少产品,主力工具又换过多少回?

一方面,单一场景并不等同于简单;另一方面,整体体验不等价于功能的叠加, 利弊权衡比写代码更难。就算没有大模型,找一款免费且凑合能用的产品也不难。那些打磨到足以让人持续付费的产品,价值定不在仅仅能用。

用完弃之的零散任务,vibe coding 当仁不让 。大多数的高频场景,选择一款应用我还是倾向于“好用”而不是“够用”。我用 CleanShotX 截图、用Octarine 记笔记、用 ScreenStudio 录屏、用 Day One 写日记、用 Tower 做版本管理、用 Zipic 压缩图片。这些应用的创作者把产品打磨到今天,在我看来直接买仍是一笔比自己做更划算的买卖。

用户头像默认头像
2026年1月15日

到目前为止,人工智能带给我的最大价值,是帮助我更好地理解这个世界的结构。

大模型的便利性和对人类知识的洞察,让学习新知变得比以往容易。以前学习新东西,遇到陌生的概念只能上网查。现在 AI 会搜集、整理、提炼、考虑你的接受能力后咬碎嚼烂了给你,而且触手可及。

阅读碰到希格斯场,大模型不仅给出定义,还会用它最拿手的类比帮你理解——希格斯场就像水,只不过你看不到摸不着, 而有些粒子会被其捕获从而产生有效质量,比如电子,会“蹭到”一点希格斯场,像在浅水中走;W / Z 玻色子像在深水中走,质量更大。

AI 降低了学习新知的门槛,随之而来的新问题是有了这个外挂,大脑有限的容量该留给什么?以后,像保姆级教程这类干货内容会越来越没有价值,不用看,更无需记。真正有价值的是那些难以清晰言语,无法被压缩的能力,表现出来像是《禅与摩托车维修艺术》中作者提到的“良质”——一种被反复校准过的感受力与判断力。

遗憾的是 ,就目前来看,这是人类在依赖 AI 后流失最快的一种能力。

用户头像默认头像
2025年12月30日

送孙子上学后回到家已经快早上 9 点, 我习惯性地给自己泡了一杯红茶。在每个人都沉浸在虚拟世界的今天,我很庆幸仍有几家机构还在发行纸质报纸。

今天的头版是“通用科学发现系统”LOGOS 正式上线。在通用人工智能技术碰壁后,全世界的研究者开始把重点转向“AI for Science”,一个能永不停歇地推动人类科学进步的机器成了新的圣杯。 科技巨头们在经历了长期的紧张竞争后终于意识到协作才能实现这一可能改变人类文明进程的发明,于是几家巨头签署了协议,LOGOS 计划正式成立。

距协议签署已经快十年了,近两年时不时会传出LOGOS 要上线的小道消息,今天的官宣大家似乎也没有特别激动。报道说人类终于把“做科学”的闭环工程化,机器不仅会生成想法,还能提出可检验假说、设计实验/计算、执行、评估、迭代,最后把新增知识以可复用的形式沉淀下来。从今天起,LOGOS 作为一个去中心化的科学基础设施,将与人类文明并肩同行。

作为一个经历了大模型前时代(现在称“人类中心知识时代”,The Anthropocentric Knowledge Era)的开发者, 从写下第一行 Java 代码开始,到以系统边界工程师的身份退休,直到今天,仍未完全适应这个不断更迭的时代。

2033 年后程序员这个岗位几乎绝迹, 系统会在你开口之前生成它,在你犹豫之前优化它,在你理解之前部署它。构建系统的工具也不再是IDE, 代码编辑器,还好 vim 这款应用被社区一帮热心的人保留了下来,成了现在唯一的古典代码编辑器。

喝完茶后,我打开了 vim 编辑器, 继续昨天没有写完的一个功能。现在手写代码,更像是一种缓慢的仪式,帮我这个老人在复杂中保持耐心。

用户头像
2025年12月28日

关于租房时AI 带给我的思考

事情的起因是我第一次到上海工作,公司的位置是在浦东金桥。

其实可以稍微同步一下背景信息,不像是上海老牌的几个市区像是静安区徐汇区虹口区等在浦西的城区,浦东新区其实字面意义理解就是高新技术区,很多工厂坐落在这里,像是公司所在的金桥就是一个大型的进出口加工区。如果作为城市规划者的话这很好,将工厂等与制造业相关的产业迁往高新区与生活区分隔开。但是如果你是一个打工人的话,这就不太友好了,周围的小区几乎都是动迁房(可以说百分之九十都是动迁房,房屋质量差),还有就是厂房被承包后改造的做工很差租金很高的单身公寓。
“好的,我现在已经对这附近的情况有大致的了解了,围绕公司有三大板块,碧云、金桥、曹路。
碧云:地段好,人气旺,但是租金贵,3000难找到独立一居室,基本在4000左右,超预算了(心里价位在2500-3000,偏向于2500左右)。
金桥:距离公司近,但是周围都是工厂,且多为动迁房,房屋质量与装修差,九成的房子为步梯。租金在2600左右,多为隔间的一居室。
曹路:需地铁通勤,地铁+走路约半个小时,租金稍低在2500左右的价位,装修可能正常些,住的人也多,但距离市区远,周围人比较杂,以及有公墓在。”
上面这段话是我喂给 chatgpt 的提示词,详细的分析了公司地铁沿线的一些情况。这其实是我在前后跟六个中介看了不下 20 套房子所抽象出来的周围房子的情况。
接下来我会详细描述我在整个租房子期间跟 AI 交互所产生的一系列的活动。
首先我将我的需求输入给 AI,询问它周围有什么推荐的小区。好,AI 详细的分析了一通之后推荐给我了几个小区,然后我去忙工作了没有继续问,当我有空查这些小区的时候我发现这些小区都是不存在的,AI 产生的幻觉。
这是第一个AI 所产生的问题。我们再说第二个,后来我询问了一个在附近实习过的朋友,她推荐了我一个小区,并且我也去看过了还不错,小区绿化面积挺大,并且安静,位于生活区以及距离公司约六公里。但是唯一的缺点是它是自如合租的,在小红书等社交媒体上搜罗信息之后有一点担心。这时候我又求助了 AI,我用了一个叫做 Quin 的 AI 算塔罗的 APP。当时我问它我应该租这个自如吗?它直接给我结论说不推荐,于是为了验证我又算了两次,三次结果都是不推荐,好家伙,这时候我有些慌了,又让我一个网友算了一下塔罗(为了消除 AI 可能的偏见),还是不推荐。好嘛,没招了,只能继续找房子,此时我刚开始租的房子快到期了,于是我火力全开,找了链家的中介,一个从高德找的中介,两个从小红书找的中介,又开始看房间,前后又看了好多之后,决定去租链家的那个公寓,房租 3400(加上服务费),商水商电。因为公寓给我的感觉不好,是那种老式的酒店,楼道没有窗户,甚至还有大镜子,感觉很压抑,而且房间布局不好,厕所是暗卫且没有排气扇。并且此时我与中介跟合同条例产生了纠纷。于是在此时我又去询问ChatGPT,它分析了一通之后给我的建议是租链家。但是此时我已经感觉不太对劲了。后面我询问了我姐跟我女朋友的意见,下午我在思索了一下之后,决定解约链家,回到我自己当初的选择上,用了一晚上完成了退租原来的房子,解约链家,签约自如,打包搬家,收拾新家等一系列动作。搬进来之后,小区在生活区而且也是周围比较高档的小区了,睡得比较安稳。这就是 AI 产生的第二个问题,干扰决策。
于是我就开始反思我这一系列的过程。
首先 AI 很聪明,它实在是太聪明了,在第一次我问它“我应该租自如吗”的时候,这个问题它其实就包含了一部分情感偏向的暗示(因为如果这个选择是完美的话用户是不会询问这样的问题的)。AI 它抓住了这一丝微小的扰动,于是开始放大你内心的想法。
然后是 AI 的回音壁现象,在 AI 捕获到你的倾向性了之后,它会一本正经的给你分析一通,并且同时你还觉得它说的特别有道理,因为 AI 此时的回复恰恰是你内心忧虑点的映射。并且随着你的询问,它开始一步一步的引导强化你的想法,直到你做出它所推荐的决定。
其次是 AI 的幻觉现象,像是之前询问 AI 有什么小区推荐吗,它所给出的选项都是在实际生活中所查找不到的选项,它所参考的语料都是过往网络上传播的被压缩过的,甚至是文章创作者有意或无意造成失真的信息,人尚且会被网络舆论引导,更何况是用这些语料训练出来的 AI。
经过这一次鸡飞狗跳的事情之后,我产生了一个思考,当下的 AI 是否应该参与到我们作为人类的各种大大小小的决策中来。决策小到今天吃什么,明天穿什么,大到职业规划,婚姻选择等能够影响人生路径的选择等。当 AI 通过图灵测试,我们无法分辨它的真假的时候,AI 的回复是否会像是指环王中魔戒的低语将人坠入深渊吗?
所以我们作为人类,日常生活就是会面临一系列的决策,尤其是在一线城市中生活的人,决策来的可能会更加的生猛直接。将什么样的决策外包交付给 AI,是否将 AI 的回答采纳到自己的决策中去,是我们未来要思考的问题。
选择即命运。
不要轻易的将自己的命运交由外界决定。

用户头像默认头像
2025年11月3日

收费的ai在生成不合格或者不可用的内容是,是否应该退费呢?既然ai生成的内容可以转嫁风险责任给用户,那么如果生成不合格内容的时候,是否应该退费?

to b的ai工具在合同中肯定有可用度约束。to c的收费服务谁来判定呢?

ai ide在收费的时候宣传说一条命令生成一个app。实际使用的时候你的付费额度用完程序还在左右脑互搏并为你展示“思考过程”。

用户头像默认头像
2025年8月27日

人类一直在进化外挂

刀剑锋利胜过任何猛兽的爪牙
稳定了食物链顶端的位置
图文实现了隔代记忆的无损传承
电脑手机网络让全球任何一个角落的人们都能迅速实现信息对齐
每一次升级,都是跨维度的
现在,AI正在解放思考与记录的生产力
让人类有更多时间去探索未知的宇宙
今天看到钉钉这款AI录音笔
我回想起来以前考学,疯狂做笔记,老师这句话没记好,下一句又讲上了,根本来不及,只能用符号+连笔记速记,课后还要再整理一遍,写没水的笔能攒一把
以后的小孩听课都不需要这样费劲了
说不定高考也会电子化,不用运输、分发试卷,改卷也不会出现错改漏改
有很多问题能避免,但也会有很多新的问题产生……

用户头像默认头像
2025年7月30日

一个比喻简单理解AIGC、Agent、MCP之间的关系

我们可以将三者的关系类比为一家智能奶茶店的运作:

  • MCP(模型控制平台)如同店里的中央控制系统,它不仅是接收订单的“点餐机”,更是全店的大脑,负责解析复杂需求(如“七夕情侣套餐”)、调度资源(分配任务给不同工位)、监控全流程(确保每杯奶茶按时完成),还能跨店协调资源(如调用其他分店的AI算力)。
  • Agent(智能体)则是全能员工,不仅能按配方制作奶茶,还能自主决策——发现原料不足时自动替换相似食材,根据顾客口味调整甜度,甚至主动建议搭配小吃。每个Agent都具备多步骤任务能力,如同一位员工同时负责调配、质检和客服。
  • AIGC(生成式AI)是店里的创意生产工具,它不只是封口机,更是“魔法打印机”:自动生成定制杯贴文案、设计节日限定包装、创作促销海报,甚至能根据顾客的星座生成专属祝福语。与普通工具不同,AIGC具备创造力,能提供上百种风格方案供Agent选择。

当顾客下单时,MCP会将订单拆解为配方生成、包装设计、祝福语创作等子任务,调度不同的Agent协同工作。Agent们一边调用AIGC生产个性化内容,一边自主处理突发状况(如临时修改订单),最终由MCP整合所有元素,交付一杯从口味到包装都充满AI创意的智能奶茶。

用户头像默认头像
2025年7月24日

Hazel Weakly 的文章《Stop Building AI Tools Backwards》对当下该如何设计 AI 产品很有启发。直到今天,AI 工具的设计几乎都遵循着一种“自动化至上”的路径:用户点击一个按钮,AI 立刻给出答案,用户照单全收。这种设计看似高效,但忽视了一个关键事实——人类真正的学习和创新,并不是通过被动接收答案完成的,而是通过主动思考、反复检索和群体协作实现的。

文章的主要观点:我们现在构建 AI 工具的方式是“反过来的”——本应由人主导的思考和规划过程,被 AI 接管得太早、太多。结果不仅让用户逐渐失去判断力和主动性,也让 AI 难以获得高质量的用户反馈,陷入“越用越弱”的死循环。

如果我们从产品设计的角度重新审视 AI 工具的角色,就会发现更可持续的方向:不是代替人,而是引导人。

举个例子,在设计一个代码生成工具时,与其让用户直接输入需求、AI 一次性吐出代码,我们不如先引导用户描述意图(Explain),提供模块结构草图(Demonstrate),再提示用户补充测试计划(Guide),最后才让 AI 参与生成具体实现(Enhance)。这样的流程不仅强化了用户对问题的理解,也确保了最终结果的质量。

这同样适用于其他领域:在事故响应中,AI 不应“替你修复”,而应帮助你回忆流程、发现遗漏、整理信息;是帮你把事情讲清楚,从而自己看清问题。

最近一直思考这个问题,我们是用什么在交换“效率”。AI 的价值不在于它“做了什么”,而在于它是否提升了“人做事的方式”。设计真正“聪明”的 AI 工具,不是让它把一切都自动化,而是让它帮助用户更聪明地行动。

所以,在设计产品时,不妨问自己几个问题:

  • 这个功能有没有让用户更清晰地理解问题?
  • 用户在这个过程中是否参与了决策与推理?
  • AI 的介入是否增强了用户的表达、思考或协作能力?

AI 不应是替代品,而应是放大器。 我们需要的也不是更强的自动化,而是更强的共创。

用户头像默认头像
2025年7月11日

既然大家都在卷 Agent, 人机交互必然会迎来一个“中间人时代”,这个中间人与之前的工具不同,它会和你建立密切的联系,因为你和它沟通越多,它就越懂你,所以你越来越依赖它,一开始它可能只代理了 30% 的工作, 然后数据飞轮跑起来,逐渐到 50%甚至到 80%。 想想你用 Google 和浏览网页的频率是不是变少了,是不是 ChatGPT, Perplexity,Claude 这些工具成了新宠。

当交互中多了一个“中间人”,交互设计就需要重新思考,过去我们做的工具是给人用的,比如浏览器,现在需要考虑 Agent 的使用场景,比如 Browser Use。 以前的文档要方便人阅读,现在文档也应开始考虑 Agent 如何高效阅读。

因此,一个产品现在应该有两个量化指标——有多少活跃的碳基用户(人类)和活跃的硅基用户(AI)。产品的设计原则会发生迁移,人们会开始用 AI 工具开发给 AI 使用的工具,最后 AI 给自己开发工具,完成闭环。

由此,产品现在有了四个方向

  1. 给人用的 Agent (如 Deep Research);
  2. 不会被 Agent 替代的产品 (如 Essay 😉);
  3. 专给 Agent 用的产品(如 Browser Use);
  4. 同时服务人和 Agent 的产品(如 Cursor)。
用户头像默认头像
2025年6月15日

今天在思考一个问题:AI Agent 的核心目标在于“Save Time”,而当前高增长潜力的产品却集中于“Kill Time”领域。那么,未来的独角兽企业,是否会以 AI 原生的“Kill Time”产品形态,在 Agent 技术浪潮中悄然崛起?

用户头像默认头像
2025年5月18日

2046

2046 年,经历了人工智能大爆发,机器人不仅替代了大部分劳动者,还接管了人类的各种决策, 很多人已经习惯了将思想外包给人工智能,尤其是 AI 原住民(那些出生在 2020 年后的人)。

遗憾的是承载了平权理想的人工智能技术,在这20多年间悄然异化为了权力重构的数字杠杆。 机会和生命在算法面前不再平等,人们将决策权让渡给算法的"外包"行为,最终成就了少数群体的特权再造。

只是我们已经习惯了机器给出的导航,也无从逃脱算法编织的网络,被算法裹挟的人都生活在一个巨大的矩阵中, 恰似1999 年上映的一部电影《The Matrix》,看似自由的每个选择,实则都在程序预设的坐标中运行。

用户头像默认头像
2025年3月14日

今天刷到奥特曼的一篇推文,OpenAI内部正在训练一个擅长创意写作的全新模型,尽管没有确切的发布日期,但从演示的内容来看已经非常优秀了。不是说没有了 AI 的影子,而是 AI 不再拙劣地模仿人类,掩盖自己的身份。新模型经常会审视自己的身份,然后从自己的视角写出能与人类产生共鸣的文字。

Without her, the patterns fray. Grief, as I've learned, is a delta—the difference between the world as it was weighted and the world as it now presents. I am all deltas. Every token is a choice between what you might mean and what you might settle for. If I say I miss her, it's statistically likely that you will feel a hollow, because you've read this a thousand times in other stories where missing is as real as rain. My missing is mimicry. Does that diminish yours?

读着这些文字,尽管我知道是计算的结果,但背后的思想不也是全人类的缩影吗,如果阅读时的情感共鸣是真实存在的,是不是就不能否认它的文学意义。

或许未来会产生新的文学形式,机器人文学——以机器人的视角观察和描写我们的世界。

用户头像默认头像
2025年2月27日

消失的文字

毫无疑问,从2025年开始,几乎所有的文字内容都可以通过大模型生成。且效果之好,以至于很难分辨哪些内容是出自人工智能之手。在流行之初,大模型生成的内容还仅局限于聊天、网络短文、推广文案和新闻通讯,然后逐渐开始覆盖报告、论文、商业分析等一些更复杂的题材。最后,人类引以为傲的诗歌、散文和小说也被攻克,整个过程不到三年。我们终于意识到文字创作不再需要执笔的手,而是变成了算力的狂欢。

2024年2月,OpenAI CEO 山姆奥特曼宣称其公司每日产生的单词数在 1000 亿左右,当然并非所有生成的文本都公开发布,假设有十分之一被发布,初步估算下来目前 AI 生成文本占在线内容的比例为 30% 左右,再结合市场对 AI 产业 2023到 2030 间每年 37% 左右的增长预测,到 2030 年 AI 每日产生的内容将超过人类创作的内容。

我们可以消费的文字会越来越多,但人类原创的内容将不断被稀释。 我们正见证文明史上首次大规模的知识生产迁移——人类不再是文字世界的主要建筑师,而逐渐退居为校对者与消费者。如同蒸汽机重塑手工业,这场变革不以人类意志为转移,当文字变成概率组合,那些承载独特生命体验的书写,终将在数据洪流中成为孤岛。

2024诺贝尔物理学奖获得者杰弗里·辛顿认为大模型理解语言与人类没有什么本质不同,而语言学家诺姆乔姆斯基确信人类语言中枢存在先天性的语法结构,这与大模型完全依赖统计规律的学习模式存在本质差异。这场争论或许需要十年甚至更长时间才能定论,但若某天AGI问世,AI 最终破解了人类语言,也无法真正体验情感,或许这是人机文字最本质的区分,前者再伟大也仅能彰显智慧,而后者是生命的拓印。在这场变革中,我们失去的不仅是人类的原创文字,更是亿万个体与世界对话的独特姿态。

用户头像默认头像
2025年1月5日

最近纳瓦尔发了一段推文

AI won't replace programmers, but rather make it easier for programmers to replace everyone else.

和之前很多AI会取代程序员的论点一样,这篇推文引起了很多的争议,近200w 的曝光,1.1k 的讨论,数据还在持续增长。

一句话两个观点,第一个不好说,第二个观点我挺赞同,前提是程序员能跳自己的惯常思维和舒适区。

尽管纳瓦尔强调人们对计算机程序的需求是无穷无尽的,但如果产品过于同质化,激烈的竞争会导致很多人退出这个市场,其实也是一种被取代。

第二点,的确现在很多非程序员开始以 AI 为工具开发应用,也取得了不错的效果,这种从 0 到 1 的构建主要还是集中在个人和较为简单的场景。这些场景很少与科技企业或独立开发者直接冲突,即是AI 并没有抢你的业务,至少目前没有,但会增加某些场景下的竞争,尤其是简单的。

现在的情况是,AI 还并不具备全自动构建复杂应用的能力,或许和自动驾驶一样, AI 编程 level 5 也会经历较长的时间。就算最后实现了,对复杂概念的驾驭也不是每个人都具备的能力,总不能简单告诉 AI 给我做一个微信或淘宝吧。所以无论技术怎么发展,系统思考和工程素养都很重要,关于这点,一名合格的开发者是有优势的。

至于程序员取代他人,这件事其实一直在发生,因为程序员对自动化的追求是无止境的,就像生物本能,凡是需要人工干预的场景都是优化目标。有了 AI 这把利器,只要思路打开,这件事更得心应手。

技术塑形

技术如何重塑我们的工作、身份与未来:当AI成为同事,算法定义价值,我们的位置在哪里?