最近"AIQ"这个概念又被翻出来了。不是智商(IQ)、不是情商(EQ),是 AIQ——你跟AI协作的能力水平。
这词其实不是新词,但今年有两篇论文把它重新拉回了视野。一篇是印度研究员发在arXiv上的框架论文(2503.16438),另一篇我做流程管理调研时候翻到的ResearchGate上的文章。两篇的核心逻辑惊人一致——他们把AIQ拆成了三个维度:
提示素养——你能不能把自己的意图精准地表达给AI听
算法共情——你知不知道AI擅长什么、不擅长什么
判断力——AI给了你一坨东西,你能辨别好坏吗
对,就这三个。每一个都挺值得掰开聊聊的。我觉得这事对做产品的人,或者任何跟AI打交道的人来说,都是个挺实在的自我审视框架。
一、提示素养——你能不能把脑子里的想法"翻译"给AI听
说白了就是你会不会写提示词(Prompt)。但"写提示词"这四个字背后,其实是一个更底层的能力:你能不能把一个模糊的需求,拆解成AI能理解的具体指令。
举个例子,你让AI"帮我写一份市场分析"。这个prompt太宽了,AI给你的东西大概率是模板化的套话,你看着觉得"好像说了什么又好像什么都没说"。但如果你说:
"你是一个资深的市场分析师,帮我分析一下新能源汽车行业在2026年第一季度的竞争格局。重点关注比亚迪、特斯拉、蔚来三家。格式:先给一个核心结论,然后分三点展开,每点控制在200字以内。数据源限定在公开财报和行业报告。"
你看,这就不一样了。你给了角色、给了范围、给了格式、给了数据约束。AI拿到这些东西,产出的质量完全不是一个量级。
所以提示素养表面上看是"会不会写prompt",实际上是你的需求拆解能力——你能不能把一个复杂问题拆成步骤、能不能想清楚边界条件、能不能用清晰的语言表达出来。这些东西其实跟产品经理写PRD的逻辑一模一样。
有个挺有意思的研究叫GLAT(Generative AI Literacy Assessment Test),他们发现很多学生用AI最大的障碍不是AI不好用,而是自己说不清楚要什么。对,问题出在人身上,不在AI身上。
二、算法共情——你知不知道AI擅长什么、不擅长什么
这个词是我觉得三个里面最有意思的。"算法共情"听着很玄,其实很简单——你对AI的能力边界有没有一个清醒的认知。
很多人用AI是"万能论"——啥都扔给AI。也有人是"怀疑论"——啥都不信AI。这两种都有问题。
真实情况是:
- 文本类任务——写文案、翻译、润色、总结、头脑风暴、写代码。这些AI非常擅长,甚至比大部分人都好。
- 数据类任务——分析表格、做统计、画图表。AI能做,但需要你给它清晰的结构和指引,而且得自己验证结果。
- 图像类任务——生成图片、识别图像内容。AI能做,但细节上经常翻车(手指、文字、逻辑关系),只能"有个意思"。
- 情感判断——理解复杂的人类情绪、提供情感支持。AI可以模仿,但别指望它真的"懂你"。
- 非理性分析——涉及潜意识、文化隐喻、讽刺、双关。这些AI极其不擅长。
比如我见过有人让AI"分析一下这张图里的微表情,判断这个人是不是在说谎"。对,这个需求你想想就知道不靠谱——AI连真假笑都分不太清楚,你要它做微表情测谎?
这就是算法共情不够。你知道AI能力边界在哪,就知道什么事交给AI、什么事自己来、什么事需要人机一起上。说白了就是分工协作的智慧。
打个比方,你不会让一个会计去帮你写宣传文案对吧?同样的道理,你得知道AI这个"员工"擅长什么岗位。
三、判断力——AI给了你一坨东西,你能辨别好坏吗
这个维度可能是最重要的,也可能是最被忽略的。
AI生成东西的速度是很快,快到你甚至来不及思考它给得对不对。但问题就在这里——AI是概率模型,它不是搜索引擎,它会一本正经地胡说八道。
这种现象叫"幻觉"(Hallucination),就是AI用非常自信的口吻说出完全错误的信息。比如你问"2024年诺贝尔物理学奖得主是谁",如果AI的数据截止到2023年,它会自信地给你一个2023年的答案,而且看起来特别靠谱,格式完整、语气笃定——但你仔细一想就知道不对。
所以判断力体现在几个方面:
- 事实核查——AI说的关键数字和事实,你能识别出可疑的地方并去验证
- 逻辑验证——AI的推理过程有没有明显的逻辑漏洞
- 审美判断——AI产出的内容质量怎么样,你自己有没有一个判断标准
- 迭代引导——发现问题后,你能不能告诉AI"这里不对,重新来"并给出方向
说白了,如果你自己不具备基本的辨别能力,AI的"高效率"反而是一种危险——你会在更短的时间内生产出更多有问题的内容,而不自知。
我见过最典型的场景:一个人让AI写一份竞品分析报告,AI编了几个不存在的竞品功能,那个人直接拿去用了。不是因为他懒,是因为他根本不知道怎么验证AI给的信息对不对。这就是判断力的缺失。
所以,你的AIQ到底怎么样?
这三个维度——提示素养、算法共情、判断力——其实相辅相成。你提示素养好,能让AI产出更好的结果;你算法共情好,能用AI做它擅长的事、避开它的短板;你判断力好,能确保结果靠谱。
缺一个都不行。
那我就在想——如果这个框架真的成立,那能不能用来衡量一个人跟AI协作的水平?
所以基于这三个维度,我设计了一套自测题。每个维度10道场景题,一共30题。没有是非题,没有一眼看出答案的题,全部是真实工作场景——比如"你让AI写份报告,它给了一堆东西,接下来你该怎么做"。你需要在每个场景下做出你的判断。
做完了你会得到一份报告:三个维度分别的得分、综合AIQ评级,还有每个维度的提升建议。
测测你的AIQ
30道场景题,10分钟,看看你在哪个水平
点击打开 →
我自己先测了一遍,做完发现——哎,我以为我"算法共情"挺好的,结果分数最低。原来我对AI图像能力的期望太高了。这就是自测的意义吧,帮你看清自己以为的和实际之间的差距。
试试看,说不定你也有意外发现。
—— 完 ——
参考:arXiv:2503.16438 · GLAT (Jin et al., 2024) · ResearchGate AIQ Framework