原文标题:how non-developers automate work like engineers (without writing code)...
原文作者:Damian Player
编译:Peggy,BlockBeats
编者按:当大多数人仍将 AI 视为「更高效的搜索工具」时,Perplexity 正在开始执行工作。
本文围绕一个被反复忽视的差异展开——为什么同样使用 AI,有人只得到一段答案,有人却直接拿到可以交付的成果。关键不在模型能力,而在使用方式:是把工具当作对话窗口,还是当作一个可以被指挥、被调度的执行系统。
以 Perplexity Computer 为代表的新一类工具,将「任务」替代「提问」作为核心交互方式。从合同审核、竞品分析,到数据清洗与报告生成,用户不再描述问题,而是直接定义最终交付物。配合连接企业工具、固化个人背景与风格样例,这种能力进一步从一次性输出,演变为可复用、可自动运行的工作流。
更重要的是,自动化的边界正在被重新定义。它不再只是辅助完成某一步,而是可以持续运行、跨工具执行,甚至主动提出补充任务。这意味着,人与工具之间的关系,正在从「使用」,转向「管理与委托」。
在这一变化下,真正的分水岭不再是是否使用 AI,而是是否已经开始用它「交付结果」。
以下为原文:
那些把这件事搞明白的人,将获得一种不对称的优势。很快,所有人都会学会怎么做。但在一切变得显而易见之前,这里是你可以提前开始的方式。
过去一年里,开发者已经在后台运行着自治型 AI 智能体(比如 Claude Code、OpenClaw 等),它们可以自己做研究、搭建产品、直接交付完整成果,不需要人反复盯着或来回提示。但你其实一直用不上这一套——除非你会用终端,会写代码。
而 Perplexity Computer 改变了这一点。这是第一次,非开发者也能用上同样的能力。你只需要一个浏览器,以及一个可以交给它去完成的任务。
大多数人打开 Perplexity,输入一个问题,得到答案,然后关掉页面。他们错过了关键。Perplexity Computer 不是用来回答问题的,它是用来执行任务的。
别再问问题了,开始把真正的工作交给它。

财务总监、律师、咨询顾问……他们打开工具,输入一个问题,得到一个还不错的答案,然后心想:「哦,一个更高级的 Google。」接着继续花 90 分钟去清理上周一刚清理过的那张表格。
问题不在工具,而在用法。他们把它当成了聊天机器人。
提问方式:「这份合同有哪些风险?」
任务方式:「审核这份合同。逐条核查所有表述是否有公开来源支持;标出措辞模糊、条款缺失以及可能带来法律责任的部分;列出最关键的 5 个风险点,并附具体条款引用;输出一份带修订痕迹的 Word 文档。」
同一份合同。一种方式只给你一份清单,让你自己去读;另一种方式直接给你一份可以发给客户的成品。
先把工具连上。点击侧边栏的 connectors。Perplexity 可以连接 400 多个应用:Gmail、Google Drive、Slack、Salesforce、Notion、SharePoint……把你实际在用的都接上。
然后让它知道你是谁。输入一次就够:「我是某个岗位,在某类公司工作。我会定期产出 X、Y、Z 这些内容。请在每次会话中记住这些背景。」它会长期保留这些信息。
再告诉它「什么是好的」。找 2–3 个你最满意的成果,上传并输入:「这些是我最好的工作样例。请学习它们的格式和语气,以后生成内容时以此为参考。」
这样,它就不是在猜你的风格,而是在反向拆解你已经验证过的成功路径。
10 分钟,先做这件事。
一位金融分析师每周一都会收到一份数据导出,150 行,格式混乱:重复数据、三种日期格式、评级用文字写而不是数字。在开始分析之前,她每周都要花 90 分钟清洗数据。同一个问题,每周重复。
她只输入了一条指令:清理这份文件,去重,统一日期格式,把文字评级转成数字;在清洗后的数据上做分析;生成一个带筛选功能的交互式仪表盘并提供分享链接;输出一份对比清洗前后的 PDF 报告;所有文件保存到 Drive 的「周一报告」文件夹。
4 分钟后:干净的数据集、交互式仪表盘、分享链接、PDF 报告——全部出现在她的 Drive 里。
然后她又问了一句:「有没有我还没问,但能让这件事更有用的改进?」
系统建议了两点:一是把这个任务设为每周一早上 7 点自动运行;二是新增一个任务,根据表现不佳的板块生成周二的管理层简报。
她把两项都设好,关掉页面。
之后每周一,它都会自动运行——无论她的电脑是否开着。
这正是开发者过去一年在用的那套能力。现在,你在浏览器里就能用。
@gregisenberg 在 @startupideaspod 播客中做了现场测试。
他只给了一个任务:找出在竞品播客投放广告的公司,识别真正负责赞助的人,并为每个人写一封个性化邮件。
系统找到了 Ramp 的增长副总裁,抓取了他两周前参与的一期播客内容,写出一封冷邮件,引用了他在节目中的具体发言,然后直接发送。Greg 并没有说「发送」,系统判断任务完成并自行执行。
接着它又主动建议:监控竞品播客,一旦有新品牌开始投放广告,立刻提醒并附上对应联系人——「在预算刚启动时就联系」。
最终,这个流程并行完成了 96 个潜在客户的调研,并安排了第 3 天和第 7 天的跟进邮件。
在 Marketing Against the Grain 节目中,团队用它审计了整个 HubSpot 产品页面:自动爬取全站、按自定义标准评分、排序问题,并生成一个可分享的网站报告。本来需要团队一周的工作,在录节目时就完成了。
这些都是现场完成的,不是演示,也不是预设脚本。
在金融领域,一位投资组合分析师在英伟达财报发布前只下达了一个任务。
返回结果是:一个实时交互式仪表盘,包含 1305 亿美元营收、75% 毛利率、114.2% 增长率、完整利润表,以及从 2021 财年到 2028 年预测的利润率趋势,全部支持筛选和分享链接。
没有 Excel,没有手动找数据,5 分钟完成。
Perplexity 可以直接调用 SEC 披露、FactSet、标普全球、PitchBook 等数据源——不需要 API key,也不需要额外授权,系统内置完成。

法律场景:
「审核这份合同。逐条核查所有表述是否有公开来源支持;标出措辞模糊、标准条款缺失,以及在 [具体州] 合同法下可能产生法律责任的内容;列出最关键的 5 个风险点,并附具体条款引用;输出一份带修订痕迹的 Word 文档。」
有位审核人员曾上传一份提案,声称某市场同比增长 43%。Perplexity Computer 查出真实数据只有 4%,在签约前就拦下了问题。
营销场景:
「分析 [竞品 1]、[竞品 2]、[竞品 3] 过去 30 天表现最好的内容;找出互动最高的内容形式与主题;识别内容空白;基于这些空白生成一个 30 天的内容日历,并保存为 Google Doc。」
把它设为定时任务。每周一自动生成最新竞品分析,无需人工调研。
运营场景:
「这是我们 Q1 的 CSV 数据。请清洗数据;按区域和产品线分析收入;识别三个最大问题;生成一页纸的行动建议;制作一页汇报用 PPT;所有文件保存到项目文件夹。」
五个交付物,一条指令。你在开会的时候,它就已经做完了。
模型评审(Model Council):60 秒得到三种判断
当你面临一个有实际后果的决策时,只需输入一次问题。Perplexity 会同时调用 Claude、ChatGPT 和 Gemini,并由一个「综合器」总结它们的共识与分歧。
·三者一致的部分:高置信结论
·存在分歧的部分:需要进一步判断
有人问产品定价该选 $297 还是 $497。三个模型给出不同答案,但综合器发现它们唯一一致的结论是:不要低于 $297。决策就此完成。
很多公司会花钱请咨询公司把分析师关在会议室里得出结论。
这里,只需要一条指令。
真正的核心能力
想从 Perplexity Computer 中获得实际价值,80% 取决于一件事:你能否清晰描述「最终产出」。
不是技术配置。而是你是否足够清楚自己要交付什么。不要描述步骤,要描述结果。
每次任务完成后,记得再问一句:「有没有我还没问,但能让这个结果更有用的地方?」
它几乎每次都会指出盲区。每次都用。
打开 Perplexity(pro 版 $20/月)。进入 Computer 页面,点击 connectors,先连接 Gmail 和 Google Drive。
输入你的三句背景介绍(只需一次)。上传 2–3 个你最好的工作样例,让它学习你的风格。然后选一个你上周花了 2 小时以上、且每次输出都类似的任务:用「最终交付物」的方式描述它,发送。观察执行过程。如果是重复任务,在关闭页面前设为自动运行。
开发者已经用这一套一年了。他们和其他人的产出差距,是真实存在的。
这,就是缩小差距的方法。
[原文链接]
欢迎加入律动 BlockBeats 官方社群:
Telegram 订阅群:https://t.me/theblockbeats
Telegram 交流群:https://t.me/BlockBeats_App
Twitter 官方账号:https://twitter.com/BlockBeatsAsia