- “这个结论在小冰期的历史数据里能验证吗?”
“AI会调用更复杂的模型来回答这些问题。”她解释,“比如你问‘海洋碳汇’,它会调出复杂系统动力学模型,告诉你‘当海水温度超过25℃,碳吸收能力会断崖式下跌’——这时候你获得的认知,已经超越了90%的‘环保爱好者’。”
小林突然想起什么:“我上次用这招问AI‘教育公平’,它一开始说‘关键是投入’,我追问‘那为什么芬兰投入少却效果好’,它才调出‘教师自主权’‘小班教学’这些更深层的原因!”
本小章还未完,请点击下一页继续阅读后面精彩内容!
第三步:用“你的坐标系”给AI结论“贴标签”
“最后一步最关键——别让AI的结论变成你的认知。”教授在黑板画了个坐标轴,X轴是“系统论视角”,Y轴是“伦理维度”,“把AI给的10个结论,扔进你自己的坐标系里分类。”
比如分析“AI取代工人”:
- 符合“系统论”的:AI会创造新职业(如AI训练师),但转型期会有阵痛;
- 涉及“伦理”的:企业该为被取代的工人提供再培训吗?
“这时候你会发现,AI只是给了你‘拼图碎片’,而怎么拼成你想要的图案,取决于你。”教授总结道,“就像康德说的‘知性为自然立法’——AI提供‘自然材料’,你用自己的‘认知框架’给它们立法。”
三、长期用AI,大脑不会退化,反而会进化出“超级思考力”
“可总让AI处理信息,我们会不会连深度思考都忘了?”小李还是担心,“我现在看长文章都走神,总想着‘让AI总结一下’。”
“这不是退化,是大脑在‘升级’。”教授调出《自然》期刊的研究图,红色的大脑扫描图上,前额叶皮层亮得刺眼,“实验显示,和AI协作的人,这部分活跃度提升30%——它负责的是‘元思考’,也就是‘思考如何思考’。”
她突然在黑板写下两组对比:
- 没有AI时,大脑在干这些:记数据(比如背诵100个历史事件)、推逻辑(比如算清楚复利公式)、找错误(比如检查论文里的引用错误);
- 有AI时,大脑在干这些:判断AI的结论靠不靠谱(比如“这个数据来源有没有偏见”)、决定用哪个模型分析(比如“用系统论还是博弈论看俄乌冲突”)、创造新的联结(比如“把AI生成的旋律和宋词结合写首歌”)。
“就像从‘算算术’升级到‘设计算法’。”教授解释,“AI接管了‘系统2’的机械工作(需要专注但不费脑子),大脑腾出空间发展‘系统3’能力——这种能力让你能跳出来,看清楚‘我为什么要做这件事’。”
小宇突然举手,声音有点激动:“我爸是医生,他说现在AI能看CT片,但他反而更忙了——因为他要判断‘AI的诊断是不是符合病人的整体情况’,还要跟病人解释‘为什么要做这个治疗’。这些才是医生真正该干的事!”
“说得太对了!”教授点头,“AI就像给大脑装了个‘超级处理器’,让你能跳过‘计算’,直接进入‘创造’。担心大脑退化?就像担心‘用了洗衣机,人就不会洗衣服了’——没错,但人因此有时间去做更有意思的事,比如学设计、学编程,甚至只是晒太阳发呆。”
四、3个“防AI依赖”法则,让它成为你的工具,不是主人
“那该怎么避免‘被AI带偏’?”小李往前探了探身,笔记本翻到新的一页,“我同事就特别相信AI,上次它推荐的股票亏了10万,他还说‘是市场错了’。”
“给你们三个‘黄金法则’,保证AI永远是你的工具。”教授笑着举起三张彩色便签:
第一个:每天留30分钟“无AI时间”,专想“AI回答不了的问题”
- 价值类:“我工作到底是为了赚钱,还是为了成就感?”