文章头图

冯周冲 · AI产品经理 · 边学AI Coding边造轮子

导语金句

最近"AIQ"这个概念又被翻出来了。不是智商(IQ)、不是情商(EQ),是 AIQ——你跟AI协作的能力水平。

这词其实不是新词,但今年有两篇论文把它重新拉回了视野。一篇是印度研究员发在arXiv上的框架论文(2503.16438),另一篇我做流程管理调研时候翻到的ResearchGate上的文章。两篇的核心逻辑惊人一致——他们把AIQ拆成了三个维度:

提示素养——你能不能把自己的意图精准地表达给AI听

算法共情——你知不知道AI擅长什么、不擅长什么

判断力——AI给了你一坨东西,你能辨别好坏吗

对,就这三个。每一个都挺值得掰开聊聊的。我觉得这事对做产品的人,或者任何跟AI打交道的人来说,都是个挺实在的自我审视框架。

一、提示素养——你能不能把脑子里的想法"翻译"给AI听

说白了就是你会不会写提示词(Prompt)。但"写提示词"这四个字背后,其实是一个更底层的能力:你能不能把一个模糊的需求,拆解成AI能理解的具体指令

举个例子,你让AI"帮我写一份市场分析"。这个prompt太宽了,AI给你的东西大概率是模板化的套话,你看着觉得"好像说了什么又好像什么都没说"。但如果你说:

"你是一个资深的市场分析师,帮我分析一下新能源汽车行业在2026年第一季度的竞争格局。重点关注比亚迪、特斯拉、蔚来三家。格式:先给一个核心结论,然后分三点展开,每点控制在200字以内。数据源限定在公开财报和行业报告。"

你看,这就不一样了。你给了角色、给了范围、给了格式、给了数据约束。AI拿到这些东西,产出的质量完全不是一个量级。

所以提示素养表面上看是"会不会写prompt",实际上是你的需求拆解能力——你能不能把一个复杂问题拆成步骤、能不能想清楚边界条件、能不能用清晰的语言表达出来。这些东西其实跟产品经理写PRD的逻辑一模一样。

有个挺有意思的研究叫GLAT(Generative AI Literacy Assessment Test),他们发现很多学生用AI最大的障碍不是AI不好用,而是自己说不清楚要什么。对,问题出在人身上,不在AI身上。

二、算法共情——你知不知道AI擅长什么、不擅长什么

这个词是我觉得三个里面最有意思的。"算法共情"听着很玄,其实很简单——你对AI的能力边界有没有一个清醒的认知

很多人用AI是"万能论"——啥都扔给AI。也有人是"怀疑论"——啥都不信AI。这两种都有问题。

真实情况是:

比如我见过有人让AI"分析一下这张图里的微表情,判断这个人是不是在说谎"。对,这个需求你想想就知道不靠谱——AI连真假笑都分不太清楚,你要它做微表情测谎?

这就是算法共情不够。你知道AI能力边界在哪,就知道什么事交给AI、什么事自己来、什么事需要人机一起上。说白了就是分工协作的智慧

打个比方,你不会让一个会计去帮你写宣传文案对吧?同样的道理,你得知道AI这个"员工"擅长什么岗位。

三、判断力——AI给了你一坨东西,你能辨别好坏吗

这个维度可能是最重要的,也可能是最被忽略的。

AI生成东西的速度是很快,快到你甚至来不及思考它给得对不对。但问题就在这里——AI是概率模型,它不是搜索引擎,它会一本正经地胡说八道

这种现象叫"幻觉"(Hallucination),就是AI用非常自信的口吻说出完全错误的信息。比如你问"2024年诺贝尔物理学奖得主是谁",如果AI的数据截止到2023年,它会自信地给你一个2023年的答案,而且看起来特别靠谱,格式完整、语气笃定——但你仔细一想就知道不对。

所以判断力体现在几个方面:

说白了,如果你自己不具备基本的辨别能力,AI的"高效率"反而是一种危险——你会在更短的时间内生产出更多有问题的内容,而不自知。

我见过最典型的场景:一个人让AI写一份竞品分析报告,AI编了几个不存在的竞品功能,那个人直接拿去用了。不是因为他懒,是因为他根本不知道怎么验证AI给的信息对不对。这就是判断力的缺失。

所以,你的AIQ到底怎么样?

这三个维度——提示素养、算法共情、判断力——其实相辅相成。你提示素养好,能让AI产出更好的结果;你算法共情好,能用AI做它擅长的事、避开它的短板;你判断力好,能确保结果靠谱。

缺一个都不行。

那我就在想——如果这个框架真的成立,那能不能用来衡量一个人跟AI协作的水平?

所以基于这三个维度,我设计了一套自测题。每个维度10道场景题,一共30题。没有是非题,没有一眼看出答案的题,全部是真实工作场景——比如"你让AI写份报告,它给了一堆东西,接下来你该怎么做"。你需要在每个场景下做出你的判断。

做完了你会得到一份报告:三个维度分别的得分、综合AIQ评级,还有每个维度的提升建议。

测测你的AIQ

30道场景题,10分钟,看看你在哪个水平

点击打开 →

我自己先测了一遍,做完发现——哎,我以为我"算法共情"挺好的,结果分数最低。原来我对AI图像能力的期望太高了。这就是自测的意义吧,帮你看清自己以为的和实际之间的差距。

试试看,说不定你也有意外发现。

—— 完 ——

参考:arXiv:2503.16438 · GLAT (Jin et al., 2024) · ResearchGate AIQ Framework

✅ 已复制到剪贴板