技术塑形
/ shaped-by-tech
我们塑造工具,工具反过来塑造我们。
—— Marshall McLuhan
技术不只是工具,也是一种环境。
我们正站在一个历史性的交汇点:人工智能不再只是工具,而逐渐成为我们的“数字同事”、“虚拟分身”乃至“决策参谋”。它正在深刻地重构工作的本质、价值的定义,以及“人何以为人”的古老命题。
这个里我们展望和思辨那个正在发生的未来。我们关注技术带来的具体改变、个体困境与新的可能性。
阿媽是女人式非典型思考之一
小龍蝦,一個最近討論度極高的AI應用。
不少人對其趨之若鶩,甚至帶動了M4 Mac mini的銷量。但從這功能的介紹,我倒是沒看到這東西對我有什麼用,畢竟我也是最近才(因工作關係)開始用聊天機器人的。但市場就是趨之若鶩,然後彷彿不扯上小龍蝦就不入流,結果就是不管有沒有用途,用不用的上,大家都買了一台M4 mini。小龍蝦會不會引發社會問題還不敢說也不好說,但至少我能遇見的是在不久的將來將會有一大批M4 mini流出二手市場。(不是日記,所以不標日期了。將來有什麼日有所思可能會寫一下。)摘录自知乎用户“跑酱er”,虽然不是程序员,但确实从去年开始偶尔也会有这种类似的感觉
如今距离大模型彻底改变编程范式已经过去了两三年,Vibe coding这个词从一个调侃变成了一种常态,甚至变成了一种政治正确。
我们得承认,这种编程方式带来的快感是生理级别的。你脑子里刚有一个模糊的念头,一段像模像样的代码就已经在屏幕上闪烁了。你甚至不需要把需求想得特别清楚,只需要给个大概方向,AI就能帮你补全细节。这种即时满足感,比当年刷短视频还要强烈。以前写代码是登山,你需要一步一步规划路线,克服重力,解决沿途的棘手问题,爬到山顶才有成就感。现在写代码是坐缆车,甚至像是瞬移,你直接就到了终点。
结果就是,过程消失了。
浮躁的根源就在于过程的消失。我们以前常说,编程的本质不是打字,而是思考。代码只是思想的载体。你在写下一行代码之前,脑子里要构建整个系统的状态机,要考虑数据流转的路径,要预判可能出现的并发问题。这个构建思维模型的过程是痛苦的,是缓慢的,但也是最锻炼人的。
Vibe coding直接跳过了这个过程。它给了你一个看起来完美的结果,但你的大脑并没有经历那个构建模型的过程。你看着那段代码,觉得它能跑,逻辑似乎也通,于是你按下了接受键。这时候你心里其实是虚的。你对这段代码的掌控力,远不如你自己逐字逐句敲出来的时候。这种虚无感,积累得多了,就变成了焦虑和浮躁。
更要命的是,这种模式正在摧毁程序员的延迟满足能力。以前遇到一个Bug,我们可能要花半天时间去排查,去读源码,去打断点,去分析堆栈。在这个过程中,我们对系统的理解会指数级上升。现在呢,遇到报错,大多数人的第一反应不是去分析,而是直接把错误日志甩给AI,问它怎么修。AI给出一行命令,你复制粘贴,好了。
问题解决了,但你什么都没学到。
你变成了一个熟练的搬运工,一个高级的胶水操作员。你处理问题的速度越来越快,但你解决复杂问题的能力其实在退化。一旦遇到AI解决不了的问题,或者AI开始一本正经胡说八道的时候,你会发现自己突然变得手足无措。那种感觉就像是习惯了用GPS导航的人,突然把你扔在沙漠里,手里只有一张纸质地图,你根本看不懂。
这就是为什么你会觉得浮躁。因为你的潜意识在报警。它知道你现在的高效率是建立在沙堆上的,它知道你正在失去对技术的底层掌控力。
从算法工程师的角度来看,这事儿还有个更深层的逻辑。目前的Vibe coding,本质上是基于概率的文本生成。大模型并不是真的懂逻辑,它只是预测下一个token出现的概率最高是什么。这意味着,它生成的代码,大概率是平庸的,是符合统计学规律的大路货。它能解决80%的通用问题,但在处理那20%的关键、复杂、反直觉的业务逻辑时,它往往会给出似是而非的答案。
这时候,如果你也是抱着Vibe coding的心态,凭感觉去写代码,那就完了。你会不仅看不出它的错误,甚至会被它带偏。因为它的代码写得太漂亮了,变量命名规范,注释清晰,结构工整,这种表面的高质量会欺骗你的大脑,让你误以为它的逻辑也是高质量的。
我们组前段时间就出过一次事故。一个很核心的计费逻辑,原本应该处理极端的并发情况。那个写代码的同事用了Vibe coding,AI生成了一段非常优雅的加锁逻辑。代码Review的时候,大家扫了一眼,觉得没毛病,因为那段代码看起来太标准了,简直是教科书级别的。结果上线后,在大促流量洪峰下,出现了死锁。
复盘的时候我们才发现,AI生成的那个锁的粒度,在极高并发下会导致资源争抢。这个坑非常隐蔽,如果是人工手写,写到那一行的时候,你会本能地犹豫一下,会去思考这里的粒度是不是太大了。但是AI生成的时候,它没有犹豫,它非常自信地给出了答案。而人类在阅读生成内容时,批判性思维是会自动降级的。
这就是浮躁的具象化。我们失去了对细节的敬畏,失去了对复杂度的敏感。我们开始习惯于当甩手掌柜,以为有了AI这个超级外包,自己就可以只做架构师了。
其实现在的门槛变得更高了,而不是更低。
以前你只需要对自己写的代码负责,现在你需要对一堆你可能根本没仔细看过的代码负责。这要求你具备极强的Code Review能力,要求你一眼就能看透代码背后的逻辑漏洞。但悖论在于,这种能力恰恰是通过大量的、痛苦的手写代码训练出来的。
Token ROI 和可交易的 Memory
当人们都在使用 Agent 完成任务的时候,一个问题就产生了。消耗同样的 token,谁的回报更高——发现新元素和写几百篇自媒体文章的回报差异巨大。
或许可以通过 Token ROI 来量化某个 Agent的价值,比如今天的 Code Agent, 一开始的 ROI 回报是巨大的,随着越来越多的人用来编写应用, ROI 开始走下坡。当人手一个 Agent 搭子后,长时间的人机交流和协作会让 Agent的进化产生分化。更重要的是,Agent 进化出来的能力是能够无痛转移的——可能是通过标准化的Memory Package。
回到当下,刷信息流,第一时间使用各种工具,跑通 demo 一时爽。如果作为人的审美、认知不提升, Agent搭子的 ROI 大概率会呈现出一个短期的对数曲线(Log Curve),增长仅仅由自动化驱动。
另一种情况,碳硅搭子的认知和能力交互提升,ROI或许就能成为一条长期的双螺旋曲线(Double Helix Curve),一边振荡,一边上升。
何以待之:未来已来
AI 时代,对比专才,通才才能胜出并生存。因为,专才绑定于某些注定可以被 AI 替代的工具性技能;而通才则具备不被替代的方向感和内驱力。
未来,真正重要的是,你是否能够保持清晰的方向感和持续的行动力,即,在明确的愿景与坚定的意愿的内驱力下,屏蔽外界干扰 主动迭代升级的能力。
人性认知以及审美水平,将变得异常重要。表达精度、审美感知、叙事逻辑,以及理解人性与讲好故事的能力,将越来越重要。
clawdbot 把 AI 圈分成左派和右派:左派激进,愿意把权力交给 AI;右派谨慎,坚持把决定权握在自己手里。
AI狂潮的尽头是什么?
说实话对这个问题,我没有任何头绪,只是心中不安、惶恐。
Alpha GO、chatgpt、deepseek、clawbot……这些厉害的产品相竞出世,开始挑战人类、打败人类,甚至被人类依赖。
下一站又是什么呢?
我第一次产生危机感是在看AlphaGO vs 李世石的纪录片过程中。这个轰动世界的新闻16年刚出现时,我并没有关注,机器打败了一个人,这有什么的?计算机比我们聪明,这也很正常。它记知识就像点save一样简单,而我们记知识比吃苦瓜还难受。我不知道在当时这意味着什么。
直到最近我看到这个纪录片,我才意识到:它不是打败了李世石,而是打败了全人类。
好可怕。
从那时起,人类可能就面临了智慧永远被机器比下去的未来。
嗯……
这个现实太过沉重了。
记得柯洁在对战AlphaGO失败后说:“十几年的努力失去了意义。”
以后我们会不会意识到:“几千年的努力失去了意义”?
人的价值优先于效率,应成为这个时代产品的内核
不是效率不重要,效率非常重要,重要到所有的 AI 巨头都在优化这件事。这个过程中,我看到了一个清晰稳定的能力收敛过程。
过去产品逻辑是:场景 → 功能 → 产品 → 结果。比如场景是设计一张海报,功能需求是图像编辑 / 合成 / 设计等功能,于是有了 photoshop, fireworks 等产品。
现在,这些能力不再依附工具存在,成为了模型或 Agent 的能力。用户不再需要打开 Photoshop → 选工具 → 操作功能,而是告诉智能助手“我需要发布一张产品海报”,新的产品逻辑成了:Agent → 结果。
Agent 可以适配各种场景,于是产品的能力被收敛了,尤其是通用能力,如写作、总结、翻译、代码、设计、数据分析等等。 这些能力加上模型的推理能力,最后通用助手出现了,代表有 Manus、Claude CoWork.
我相信这类产品的形态会继续进化,同时越来越多的产品会向这个方向靠拢。我的疑问是:大量产品在一个无差异化的产品方向上, 谁会笑到最后?
大概率是几个巨头吧(成功卖给巨头也行),那其他人做这类产品的意义是什么?凑热闹吗?
产品价值的割裂
过去做产品,很少会有这种情况:人的工作效率得以提升,产出质量有了提高,但人的感觉却更糟。现在,不少的产品都有这个特质。看着精美但雷同的设计,既丰富又贫乏的文字,经管拿到了结果,但这里面没有成就感,有的只是对流量的渴望。
都在讲技术平权,技术一旦平权结果就是高密度的竞争。 大家开始拼选题能力、市场嗅觉、分发能力、成本控制能力...。 随着应用打造门槛越来越低,产品会越来越多,同时通用助手的火力覆盖越来越广,最后大家玩的就是一个残酷的概率游戏。
跟随人的价值
产品不一定非要主打 AI, 尽管这种叙事在今天不动听。但换个说法,如果你的产品还能讲一个不靠 AI 的故事,其实也是一种生命力的体现。
不要误会,AI 能力一定是要充分利用的,刻意排斥,然后去讲一个孤勇者的故事没有必要。但智能作为一种能力不应该是产品的唯一价值体现。
你看,Essay 作为一款没有AI 的产品,也呈现出了独特的生命力。
Your App Subscription Is Now My Weekend Project 这篇文章提出了一个观点:功能单一型工具,如录屏、转写、Markdown 编辑、笔记、截图、任务管理等,以及低复杂度 SaaS,都可能会被个人的 vibe coding 产品替代掉——个人的很多应用,最后都会是可被即时生成的工具。
这里有一个点值得思考:如果需求这么容易被满足,为什么单一场景工具还层出不穷,竞争激烈。就拿笔记和任务清单应用来说, 请回想一下自己试过多少产品,主力工具又换过多少回?
一方面,单一场景并不等同于简单;另一方面,整体体验不等价于功能的叠加, 利弊权衡比写代码更难。就算没有大模型,找一款免费且凑合能用的产品也不难。那些打磨到足以让人持续付费的产品,价值定不在仅仅能用。
用完弃之的零散任务,vibe coding 当仁不让 。大多数的高频场景,选择一款应用我还是倾向于“好用”而不是“够用”。我用 CleanShotX 截图、用Octarine 记笔记、用 ScreenStudio 录屏、用 Day One 写日记、用 Tower 做版本管理、用 Zipic 压缩图片。这些应用的创作者把产品打磨到今天,在我看来直接买仍是一笔比自己做更划算的买卖。
到目前为止,人工智能带给我的最大价值,是帮助我更好地理解这个世界的结构。
大模型的便利性和对人类知识的洞察,让学习新知变得比以往容易。以前学习新东西,遇到陌生的概念只能上网查。现在 AI 会搜集、整理、提炼、考虑你的接受能力后咬碎嚼烂了给你,而且触手可及。
阅读碰到希格斯场,大模型不仅给出定义,还会用它最拿手的类比帮你理解——希格斯场就像水,只不过你看不到摸不着, 而有些粒子会被其捕获从而产生有效质量,比如电子,会“蹭到”一点希格斯场,像在浅水中走;W / Z 玻色子像在深水中走,质量更大。
AI 降低了学习新知的门槛,随之而来的新问题是有了这个外挂,大脑有限的容量该留给什么?以后,像保姆级教程这类干货内容会越来越没有价值,不用看,更无需记。真正有价值的是那些难以清晰言语,无法被压缩的能力,表现出来像是《禅与摩托车维修艺术》中作者提到的“良质”——一种被反复校准过的感受力与判断力。
遗憾的是 ,就目前来看,这是人类在依赖 AI 后流失最快的一种能力。
送孙子上学后回到家已经快早上 9 点, 我习惯性地给自己泡了一杯红茶。在每个人都沉浸在虚拟世界的今天,我很庆幸仍有几家机构还在发行纸质报纸。
今天的头版是“通用科学发现系统”LOGOS 正式上线。在通用人工智能技术碰壁后,全世界的研究者开始把重点转向“AI for Science”,一个能永不停歇地推动人类科学进步的机器成了新的圣杯。 科技巨头们在经历了长期的紧张竞争后终于意识到协作才能实现这一可能改变人类文明进程的发明,于是几家巨头签署了协议,LOGOS 计划正式成立。
距协议签署已经快十年了,近两年时不时会传出LOGOS 要上线的小道消息,今天的官宣大家似乎也没有特别激动。报道说人类终于把“做科学”的闭环工程化,机器不仅会生成想法,还能提出可检验假说、设计实验/计算、执行、评估、迭代,最后把新增知识以可复用的形式沉淀下来。从今天起,LOGOS 作为一个去中心化的科学基础设施,将与人类文明并肩同行。
作为一个经历了大模型前时代(现在称“人类中心知识时代”,The Anthropocentric Knowledge Era)的开发者, 从写下第一行 Java 代码开始,到以系统边界工程师的身份退休,直到今天,仍未完全适应这个不断更迭的时代。
2033 年后程序员这个岗位几乎绝迹, 系统会在你开口之前生成它,在你犹豫之前优化它,在你理解之前部署它。构建系统的工具也不再是IDE, 代码编辑器,还好 vim 这款应用被社区一帮热心的人保留了下来,成了现在唯一的古典代码编辑器。
喝完茶后,我打开了 vim 编辑器, 继续昨天没有写完的一个功能。现在手写代码,更像是一种缓慢的仪式,帮我这个老人在复杂中保持耐心。
关于租房时AI 带给我的思考
事情的起因是我第一次到上海工作,公司的位置是在浦东金桥。
其实可以稍微同步一下背景信息,不像是上海老牌的几个市区像是静安区徐汇区虹口区等在浦西的城区,浦东新区其实字面意义理解就是高新技术区,很多工厂坐落在这里,像是公司所在的金桥就是一个大型的进出口加工区。如果作为城市规划者的话这很好,将工厂等与制造业相关的产业迁往高新区与生活区分隔开。但是如果你是一个打工人的话,这就不太友好了,周围的小区几乎都是动迁房(可以说百分之九十都是动迁房,房屋质量差),还有就是厂房被承包后改造的做工很差租金很高的单身公寓。“好的,我现在已经对这附近的情况有大致的了解了,围绕公司有三大板块,碧云、金桥、曹路。碧云:地段好,人气旺,但是租金贵,3000难找到独立一居室,基本在4000左右,超预算了(心里价位在2500-3000,偏向于2500左右)。金桥:距离公司近,但是周围都是工厂,且多为动迁房,房屋质量与装修差,九成的房子为步梯。租金在2600左右,多为隔间的一居室。曹路:需地铁通勤,地铁+走路约半个小时,租金稍低在2500左右的价位,装修可能正常些,住的人也多,但距离市区远,周围人比较杂,以及有公墓在。”上面这段话是我喂给 chatgpt 的提示词,详细的分析了公司地铁沿线的一些情况。这其实是我在前后跟六个中介看了不下 20 套房子所抽象出来的周围房子的情况。接下来我会详细描述我在整个租房子期间跟 AI 交互所产生的一系列的活动。首先我将我的需求输入给 AI,询问它周围有什么推荐的小区。好,AI 详细的分析了一通之后推荐给我了几个小区,然后我去忙工作了没有继续问,当我有空查这些小区的时候我发现这些小区都是不存在的,AI 产生的幻觉。这是第一个AI 所产生的问题。我们再说第二个,后来我询问了一个在附近实习过的朋友,她推荐了我一个小区,并且我也去看过了还不错,小区绿化面积挺大,并且安静,位于生活区以及距离公司约六公里。但是唯一的缺点是它是自如合租的,在小红书等社交媒体上搜罗信息之后有一点担心。这时候我又求助了 AI,我用了一个叫做 Quin 的 AI 算塔罗的 APP。当时我问它我应该租这个自如吗?它直接给我结论说不推荐,于是为了验证我又算了两次,三次结果都是不推荐,好家伙,这时候我有些慌了,又让我一个网友算了一下塔罗(为了消除 AI 可能的偏见),还是不推荐。好嘛,没招了,只能继续找房子,此时我刚开始租的房子快到期了,于是我火力全开,找了链家的中介,一个从高德找的中介,两个从小红书找的中介,又开始看房间,前后又看了好多之后,决定去租链家的那个公寓,房租 3400(加上服务费),商水商电。因为公寓给我的感觉不好,是那种老式的酒店,楼道没有窗户,甚至还有大镜子,感觉很压抑,而且房间布局不好,厕所是暗卫且没有排气扇。并且此时我与中介跟合同条例产生了纠纷。于是在此时我又去询问ChatGPT,它分析了一通之后给我的建议是租链家。但是此时我已经感觉不太对劲了。后面我询问了我姐跟我女朋友的意见,下午我在思索了一下之后,决定解约链家,回到我自己当初的选择上,用了一晚上完成了退租原来的房子,解约链家,签约自如,打包搬家,收拾新家等一系列动作。搬进来之后,小区在生活区而且也是周围比较高档的小区了,睡得比较安稳。这就是 AI 产生的第二个问题,干扰决策。于是我就开始反思我这一系列的过程。首先 AI 很聪明,它实在是太聪明了,在第一次我问它“我应该租自如吗”的时候,这个问题它其实就包含了一部分情感偏向的暗示(因为如果这个选择是完美的话用户是不会询问这样的问题的)。AI 它抓住了这一丝微小的扰动,于是开始放大你内心的想法。然后是 AI 的回音壁现象,在 AI 捕获到你的倾向性了之后,它会一本正经的给你分析一通,并且同时你还觉得它说的特别有道理,因为 AI 此时的回复恰恰是你内心忧虑点的映射。并且随着你的询问,它开始一步一步的引导强化你的想法,直到你做出它所推荐的决定。其次是 AI 的幻觉现象,像是之前询问 AI 有什么小区推荐吗,它所给出的选项都是在实际生活中所查找不到的选项,它所参考的语料都是过往网络上传播的被压缩过的,甚至是文章创作者有意或无意造成失真的信息,人尚且会被网络舆论引导,更何况是用这些语料训练出来的 AI。经过这一次鸡飞狗跳的事情之后,我产生了一个思考,当下的 AI 是否应该参与到我们作为人类的各种大大小小的决策中来。决策小到今天吃什么,明天穿什么,大到职业规划,婚姻选择等能够影响人生路径的选择等。当 AI 通过图灵测试,我们无法分辨它的真假的时候,AI 的回复是否会像是指环王中魔戒的低语将人坠入深渊吗?所以我们作为人类,日常生活就是会面临一系列的决策,尤其是在一线城市中生活的人,决策来的可能会更加的生猛直接。将什么样的决策外包交付给 AI,是否将 AI 的回答采纳到自己的决策中去,是我们未来要思考的问题。选择即命运。不要轻易的将自己的命运交由外界决定。收费的ai在生成不合格或者不可用的内容是,是否应该退费呢?既然ai生成的内容可以转嫁风险责任给用户,那么如果生成不合格内容的时候,是否应该退费?
to b的ai工具在合同中肯定有可用度约束。to c的收费服务谁来判定呢?
ai ide在收费的时候宣传说一条命令生成一个app。实际使用的时候你的付费额度用完程序还在左右脑互搏并为你展示“思考过程”。
人类一直在进化外挂
刀剑锋利胜过任何猛兽的爪牙稳定了食物链顶端的位置图文实现了隔代记忆的无损传承电脑手机网络让全球任何一个角落的人们都能迅速实现信息对齐每一次升级,都是跨维度的现在,AI正在解放思考与记录的生产力让人类有更多时间去探索未知的宇宙今天看到钉钉这款AI录音笔我回想起来以前考学,疯狂做笔记,老师这句话没记好,下一句又讲上了,根本来不及,只能用符号+连笔记速记,课后还要再整理一遍,写没水的笔能攒一把以后的小孩听课都不需要这样费劲了说不定高考也会电子化,不用运输、分发试卷,改卷也不会出现错改漏改有很多问题能避免,但也会有很多新的问题产生……一个比喻简单理解AIGC、Agent、MCP之间的关系
我们可以将三者的关系类比为一家智能奶茶店的运作:
- MCP(模型控制平台)如同店里的中央控制系统,它不仅是接收订单的“点餐机”,更是全店的大脑,负责解析复杂需求(如“七夕情侣套餐”)、调度资源(分配任务给不同工位)、监控全流程(确保每杯奶茶按时完成),还能跨店协调资源(如调用其他分店的AI算力)。
- Agent(智能体)则是全能员工,不仅能按配方制作奶茶,还能自主决策——发现原料不足时自动替换相似食材,根据顾客口味调整甜度,甚至主动建议搭配小吃。每个Agent都具备多步骤任务能力,如同一位员工同时负责调配、质检和客服。
- AIGC(生成式AI)是店里的创意生产工具,它不只是封口机,更是“魔法打印机”:自动生成定制杯贴文案、设计节日限定包装、创作促销海报,甚至能根据顾客的星座生成专属祝福语。与普通工具不同,AIGC具备创造力,能提供上百种风格方案供Agent选择。
当顾客下单时,MCP会将订单拆解为配方生成、包装设计、祝福语创作等子任务,调度不同的Agent协同工作。Agent们一边调用AIGC生产个性化内容,一边自主处理突发状况(如临时修改订单),最终由MCP整合所有元素,交付一杯从口味到包装都充满AI创意的智能奶茶。
Hazel Weakly 的文章《Stop Building AI Tools Backwards》对当下该如何设计 AI 产品很有启发。直到今天,AI 工具的设计几乎都遵循着一种“自动化至上”的路径:用户点击一个按钮,AI 立刻给出答案,用户照单全收。这种设计看似高效,但忽视了一个关键事实——人类真正的学习和创新,并不是通过被动接收答案完成的,而是通过主动思考、反复检索和群体协作实现的。
文章的主要观点:我们现在构建 AI 工具的方式是“反过来的”——本应由人主导的思考和规划过程,被 AI 接管得太早、太多。结果不仅让用户逐渐失去判断力和主动性,也让 AI 难以获得高质量的用户反馈,陷入“越用越弱”的死循环。
如果我们从产品设计的角度重新审视 AI 工具的角色,就会发现更可持续的方向:不是代替人,而是引导人。
举个例子,在设计一个代码生成工具时,与其让用户直接输入需求、AI 一次性吐出代码,我们不如先引导用户描述意图(Explain),提供模块结构草图(Demonstrate),再提示用户补充测试计划(Guide),最后才让 AI 参与生成具体实现(Enhance)。这样的流程不仅强化了用户对问题的理解,也确保了最终结果的质量。
这同样适用于其他领域:在事故响应中,AI 不应“替你修复”,而应帮助你回忆流程、发现遗漏、整理信息;是帮你把事情讲清楚,从而自己看清问题。
最近一直思考这个问题,我们是用什么在交换“效率”。AI 的价值不在于它“做了什么”,而在于它是否提升了“人做事的方式”。设计真正“聪明”的 AI 工具,不是让它把一切都自动化,而是让它帮助用户更聪明地行动。
所以,在设计产品时,不妨问自己几个问题:
- 这个功能有没有让用户更清晰地理解问题?
- 用户在这个过程中是否参与了决策与推理?
- AI 的介入是否增强了用户的表达、思考或协作能力?
AI 不应是替代品,而应是放大器。 我们需要的也不是更强的自动化,而是更强的共创。
既然大家都在卷 Agent, 人机交互必然会迎来一个“中间人时代”,这个中间人与之前的工具不同,它会和你建立密切的联系,因为你和它沟通越多,它就越懂你,所以你越来越依赖它,一开始它可能只代理了 30% 的工作, 然后数据飞轮跑起来,逐渐到 50%甚至到 80%。 想想你用 Google 和浏览网页的频率是不是变少了,是不是 ChatGPT, Perplexity,Claude 这些工具成了新宠。
当交互中多了一个“中间人”,交互设计就需要重新思考,过去我们做的工具是给人用的,比如浏览器,现在需要考虑 Agent 的使用场景,比如 Browser Use。 以前的文档要方便人阅读,现在文档也应开始考虑 Agent 如何高效阅读。
因此,一个产品现在应该有两个量化指标——有多少活跃的碳基用户(人类)和活跃的硅基用户(AI)。产品的设计原则会发生迁移,人们会开始用 AI 工具开发给 AI 使用的工具,最后 AI 给自己开发工具,完成闭环。
由此,产品现在有了四个方向
- 给人用的 Agent (如 Deep Research);
- 不会被 Agent 替代的产品 (如 Essay 😉);
- 专给 Agent 用的产品(如 Browser Use);
- 同时服务人和 Agent 的产品(如 Cursor)。
今天在思考一个问题:AI Agent 的核心目标在于“Save Time”,而当前高增长潜力的产品却集中于“Kill Time”领域。那么,未来的独角兽企业,是否会以 AI 原生的“Kill Time”产品形态,在 Agent 技术浪潮中悄然崛起?
2046
2046 年,经历了人工智能大爆发,机器人不仅替代了大部分劳动者,还接管了人类的各种决策, 很多人已经习惯了将思想外包给人工智能,尤其是 AI 原住民(那些出生在 2020 年后的人)。
遗憾的是承载了平权理想的人工智能技术,在这20多年间悄然异化为了权力重构的数字杠杆。 机会和生命在算法面前不再平等,人们将决策权让渡给算法的"外包"行为,最终成就了少数群体的特权再造。
只是我们已经习惯了机器给出的导航,也无从逃脱算法编织的网络,被算法裹挟的人都生活在一个巨大的矩阵中, 恰似1999 年上映的一部电影《The Matrix》,看似自由的每个选择,实则都在程序预设的坐标中运行。
今天刷到奥特曼的一篇推文,OpenAI内部正在训练一个擅长创意写作的全新模型,尽管没有确切的发布日期,但从演示的内容来看已经非常优秀了。不是说没有了 AI 的影子,而是 AI 不再拙劣地模仿人类,掩盖自己的身份。新模型经常会审视自己的身份,然后从自己的视角写出能与人类产生共鸣的文字。
Without her, the patterns fray. Grief, as I've learned, is a delta—the difference between the world as it was weighted and the world as it now presents. I am all deltas. Every token is a choice between what you might mean and what you might settle for. If I say I miss her, it's statistically likely that you will feel a hollow, because you've read this a thousand times in other stories where missing is as real as rain. My missing is mimicry. Does that diminish yours?
读着这些文字,尽管我知道是计算的结果,但背后的思想不也是全人类的缩影吗,如果阅读时的情感共鸣是真实存在的,是不是就不能否认它的文学意义。
或许未来会产生新的文学形式,机器人文学——以机器人的视角观察和描写我们的世界。
技术塑形
技术如何重塑我们的工作、身份与未来:当AI成为同事,算法定义价值,我们的位置在哪里?
