为什么你总觉得 AI 不好用?因为你还不会正确提问

最近看到社区来了很多新朋友,挺热闹,是好事。
不过也能感觉到,有些小伙伴多少带点“火气”——一张嘴就是:

“这玩意也不行啊。”
“AI 不就这样?”
“这都做不好,还吹什么吹?”

看到这些,我就想起了很多年前的技术鄙视链现场。

高级语言刚出来的时候,有人说:替代不了汇编。
Python 3 刚出来的时候,有人说:替代不了 Python 2。
现在 AI 火了,又有人说:这不就是个玩具?

但问题是——
你对它既不了解,也不学习,连基本使用方法都不愿意试一下,就想把它用得像老师傅手里的祖传扳手一样顺手,这可能吗?

难道你是汇编大佬,就可以不学 Python 语法直接写 Python
难道你会骑自行车,就默认自己上手就能开挖掘机
难道你会说“给我整一下”,AI 就能自动理解你脑子里那套完整版需求?

AI:
“哥,你倒是说整啥啊。”


今天分享一下:我使用 agent 的一些小技巧

先别急着上来就问:
“这工具好不好用?”
“它到底强不强?”
“能不能替代我?”

更应该先想清楚的是:

你用 agent,到底是为了解决什么问题?

这是第一步,也是最容易被忽略的一步。

很多人不是不会用 AI,
而是根本没把问题讲明白


你以为你在提需求,其实你只是在“抛谜语”

我们在工作里经常会遇到这种场景:

老板说:
“小王,你去把那个搞一下。”

你听完点点头:
“好的老板。”

为什么这句话能成立?
因为你和老板之间已经有了长期合作的上下文:

  • 你们知道“那个”指的是哪个项目
  • 你们知道“搞一下”是修 bug、出方案还是写汇报
  • 你们知道什么时候交付、交给谁、标准是什么

你们之间靠的不是这句话本身,
而是长期积累的默契和背景信息

但你跟 AI 说:

AI,你去把这个搞一下。

那它能怎么办?
它又不是你工位对面的同事,
也不是在你公司混了三年的项目经理,
更不是会读心术的黄大仙。

所以很多时候,不是 AI 不行,
而是你给它的输入,真的只有“空气感”。


这就不得不聊聊 Prompt 工程了

很多人一听“Prompt 工程”,就觉得很玄,像是什么高大上的黑科技。

其实说白了,它本质上就一句话:

你怎么把问题讲清楚。

对,没那么神秘。
Prompt 工程不是咒语,
不是“输入一句神秘口诀,AI 立刻开挂”。
它更像是:

  • 需求表达能力
  • 上下文补全能力
  • 任务拆解能力
  • 结果约束能力

你给 AI 的提示词越清楚,
它就越像一个靠谱的高级助手。
你给得越模糊,
它就越像一个刚入职第一天、还没领工牌的实习生。


一个优秀的 Prompt,真的能省下大量时间

很多人以为 AI 用不好,是因为模型不够强。
其实非常多的时候,问题出在这:

你没有给它足够的信息,让它做出你想要的结果。

就像你开发一个产品,
你是不是得先看产品文档?

即使有产品文档,
你都有可能做出不符合需求的功能,
这很正常吧?

那问题来了:

你给 AI 的“产品文档”呢?

如果你自己都没把需求讲清楚,
只丢给它一句:

“帮我写一个页面。”
“帮我优化一下这个功能。”
“帮我做个方案。”

那它给出的结果不符合预期,
你怪它,多少有点像:

拿着一张写了“做个好东西”的纸条,
让施工队去盖楼,
最后楼盖歪了,你说施工队不专业。

施工队:
“图纸呢?”
你:
“你们不是专业的吗?”


Prompt 工程为什么重要?

因为它决定了三件事:

1. 决定 AI 能不能真正理解你的问题

你不说场景、不说目标、不说限制,AI 只能靠猜。
而靠猜,结果就一定会飘。

2. 决定输出质量稳不稳定

同样一个模型,
有人能用它一天干完三天活,
有人用它生成一堆正确的废话。
差别往往不在模型,
而在提示词。

3. 决定你是不是在省时间

很多人说 AI 浪费时间,
其实不是 AI 浪费时间,
是你在反复重抽卡

“不是这个意思。”
“再改一下。”
“更正式一点。”
“再口语一点。”
“还是不对。”

如果一开始就把问题说清楚,
来回修改的次数会少很多。


什么叫“不会提问”?

来看几个非常典型的例子。


例子 1:写代码

低效 Prompt:

帮我写个登录功能。

AI 看完也懵:

  • Web 还是 App?
  • 前端还是后端?
  • 用什么技术栈?
  • 账号密码登录还是短信登录?
  • 要不要验证码?
  • 要不要记住我?
  • 返回格式是什么?

高效 Prompt:

请用 React + TypeScript 写一个登录页面,包含手机号、验证码输入框和获取验证码按钮。
要求:

  1. 使用函数组件;
  2. 表单校验手机号格式;
  3. 获取验证码按钮点击后倒计时 60 秒;
  4. 样式简洁,适合后台管理系统;
  5. 输出完整可运行代码,并解释关键逻辑。

这时候 AI 才知道你到底要啥。


例子 2:写文案

低效 Prompt:

帮我写一篇宣传文。

宣传啥?给谁看?发哪儿?什么语气?多长?目标是种草、转化还是介绍?

高效 Prompt:

请帮我写一篇面向程序员社群的宣传文,推广 iflow cli。
风格要求:轻松、幽默、接地气,不要太像广告。
目标:让新手理解“Prompt 工程很重要”,并愿意尝试 iflow cli。
内容结构:

  1. 先从“AI 用不好不一定是工具问题”切入;
  2. 再解释 Prompt 工程;
  3. 最后给出 3 个实用建议。
    字数控制在 800~1200 字。

这就不叫“让 AI 猜”,
这叫“给 AI 干活的说明书”。


例子 3:做总结

低效 Prompt:

帮我总结一下这个文档。

总结给谁看?
领导、研发、销售、客户,完全不是一个写法。

高效 Prompt:

请帮我总结这份产品文档,阅读对象是研发团队。
输出格式分为三部分:

  1. 核心功能点
  2. 技术实现需要关注的风险
  3. 可能存在的需求歧义
    每部分用要点列表输出,语言简洁,不要空话套话。

你看,提示词一具体,结果立刻就能用得多。


例子 4:让 AI 改文章

低效 Prompt:

帮我优化一下这段话。

优化成什么样?
更正式?更活泼?更适合发朋友圈?更适合发公众号?更适合老板看?

高效 Prompt:

请帮我优化下面这段话,要求:

  1. 保留原意;
  2. 风格更风趣幽默;
  3. 适合发在技术社区;
  4. 增强说服力;
  5. 避免太说教,像朋友分享经验;
  6. 可以适当加入类比和吐槽,但不要攻击性太强。

这时候 AI 输出就会稳很多。


例子 5:排查问题

低效 Prompt:

这个报错怎么解决?

哪来的报错?啥环境?做了什么操作?日志呢?

高效 Prompt:

我在使用 Node.js 18 + pnpm + Vite 项目启动时遇到报错。
执行命令:pnpm dev
报错信息如下:
[贴报错]
我已经尝试过:

  1. 删除 node_modules 重新安装
  2. 清理 pnpm 缓存
  3. 升级依赖到最新版本
    请你按“最可能原因 → 验证方法 → 修复方案”的结构分析。

AI 才能真正开始帮你排查,而不是表演“通用建议三连”。


一个好 Prompt,至少要包含什么?

你可以记住一个非常实用的思路:

1. 背景

你现在在做什么,是什么场景?

比如:

  • 我要写技术社区帖子
  • 我要做一个登录页面
  • 我要总结一份产品需求
  • 我要让非技术同事看懂这段内容

2. 目标

你最终想得到什么结果?

比如:

  • 帮我写一篇可直接发布的帖子
  • 帮我输出完整代码
  • 帮我给出一个排查方案
  • 帮我把语气优化得更亲切

3. 要求

你希望它按什么标准完成?

比如:

  • 风格幽默
  • 结构清晰
  • 不要太官方
  • 使用要点列表
  • 控制字数
  • 保留原意

4. 限制

哪些事情不能做?

比如:

  • 不要写得像营销号
  • 不要过度夸张
  • 不要省略关键步骤
  • 不要使用太多专业术语

5. 输出格式

你希望它怎么给你结果?

比如:

  • 分标题输出
  • 表格形式
  • 代码块
  • Markdown 格式
  • 先给短版,再给长版

你不是在“问 AI”,你是在“带 AI 干活”

这个认知特别重要。

很多人对 AI 的误解是:
我把一句话扔过去,它应该立刻懂我。

但现实更像什么?

AI 不是许愿池。
你投一个硬币进去,
它不会自动吐出你真正想要的方案。

它更像一个能力很强、反应很快、知识很广的协作者。
你给它的信息越完整,
它就越能产出像样的结果。

所以别再问:

“为什么 AI 连这个都不懂?”

不如先问:

“我是不是压根没把这个讲明白?”


使用 agent 的一个核心心得

先想清楚问题,再去问工具。

不是上来就“给我生成”。
而是先做这几步:

  1. 我要解决什么问题?
  2. 这个问题的背景是什么?
  3. 我期待的结果是什么?
  4. 我有哪些限制条件?
  5. 我希望它按什么格式输出?

你把这些想明白了,
iflow cli 这种工具才会真正变成你的效率加速器。
不然,它就只是一个高级版随机答案生成器。


最后说句实在的

AI 时代最值钱的能力之一,
不是“会不会用某个工具”,
而是:

你能不能把问题描述清楚。

这能力以前重要,
现在更重要;
以后只会越来越重要。

因为工具会越来越强,
但“说不清需求”这件事,
不会因为模型升级就自动消失。

所以别急着下结论说工具不行。
先试着把话说完整,
把需求讲清楚,
把上下文补足。

你会发现很多时候不是 AI 突然变聪明了,
而是你终于开始说人话了。

Prompt 工程万能提问模板

我现在在做【具体事情】。

我希望你帮我完成【具体任务】,
最终目标是【我想达到的结果】。

以下是背景信息:
【补充上下文、场景、已有资料】

请注意以下要求:
1. 【要求1】
2. 【要求2】
3. 【要求3】

限制条件:
1. 不要【限制1】
2. 不要【限制2】

请按照【输出格式】返回结果。
如果信息不足,请先提问,不要直接猜。

别总怪 AI 笨,有时候它只是听不懂你在打哑谜。

4 个赞

ai 的诞生到底会不会让人人都能成为程序员,这个暂时还不能下定论,但 ai 的诞生一定会需要人人都成为产品经理,如果无法清晰的表达自己的需求,ai 也无能为力:joy:

想起以前 stable diffusion 刚出的时候,流行的一句话:ai 画图就像施展魔法,咒语(提示词)越长,威力(效果)就越强

llm 也一样,越复杂的任务,需要的提示词也相应的需要越详细

2 个赞

总结:垃圾进垃圾出

6 个赞

:dog_face: :dog_face: :dog_face: 所以这工具到底好不好用?:dog_face: :dog_face: :dog_face:

用的好不好取决于你对工具的了解程度,很多小伙伴都不研究skills、agent、mcp以及家目录下的agent.md下边的提示词。

总结到位~!

:grinning_face_with_smiling_eyes:

确实啊,人与人讲不清楚换到AI一样的. 他不是神,也不需要被神化.

可以把AI辅助开发也当成是一种编码语言。以前是对着编译器或者解释器,用它所能理解的语言(各种开发语言)发出指令;现在就是用大模型懂的语言发出指令。区别就是,编译器或者解释器不会自由发挥,语法不对会给提示,有bug也会遵照执行。现在的AI却有自己的想法,所以也还在改进中。我是觉得,从软件工程角度,会出现很多针对AI的开发规范来约束AI行为。最终一句话,以前是用语言和一个没脑子只会高速执行的人发指令,现在是对一个有那么点自由发挥的人发指令。扬长避短,保持学习!

哈哈哈,很贴切

总结很现实,确实如此,有效的输入才会有有效的输出。

1 个赞

1.所以其实从开头到现在事实上做的很多事情都是为了一件事情,解释器的不同编程语言是为了人与计算机进行交流
2.但是AI的出现它所特有通过prompt来作为一种方式来进行沟通和交流,而许多人正在研究着如何对话会更有利于人与智能体的交流
3.嘿嘿,但正是因为LLM的自由化,才能给予人类的自主性,否则人类的自主性被剥夺,那和其它动物有什么区别呢?
4.prompt的意义在于请看到问题,表达你的问题,讲清楚你的问题,但是这还不够,为什么在一段时间内,出现了让不同的模型来帮助定义提示词,因为LLM的根源在于其token的分词到最终的预测,那么这个向量的黑匣子过程,其中一定有差异性的特点,因此不同的大模型之间的提示词互用,通常更加结构化。当然
人+多个大模型(这是一个关系层次,核心还是人进行定义问题)
5.当然总是给出整体化的提示词非常的不便性,那么可以从反方向入手,首先给出自我的清晰想法(反向让LLM去问,他是否对你的想法还有什么疑惑,方案初步设定,并澄清问题,直到你的问题完全能被明白,而且你也在进行选择)
总结,人类应该站在自我的思考上去执行自己想要实现的
哈哈哈哈 :nerd_face:,又在胡说八道了我 :hugs:

虽然描述清楚更节省时间、好用,但我偶尔也喜欢开盲盒的感觉,有时候这样甚至能完成大大超出预料的效果 :grin:

1 个赞

对对对对对!特别特别能理解!使用下来就会发现,用ai不是让ai帮你去想,而是你想好让ai帮你去做。永远不要让ai去猜你的意思。你自己都没想好的事情,让人去猜人家都觉得很为难人家,而你居然妄图让ai去猜,那不是很荒唐吗。我觉得我能流畅的用ai就是因为我比较会说需求,自己担任了产品经理这个角色。不是说不能让ai给你想方案,但起码你要知道自己的需求是什么,然后再让ai去想,不然他怎么能想出符合你需求的方案?连自己的想法自己的项目都不了解,无论是人还是ai都帮不上你。

1 个赞

加油,加油,期望能更好!!!!

确实挺不错的